Цифровой ястреб: как ИИ стал «невидимым штабом» в операции против Ирана
В ходе военной кампании против Ирана, развернувшейся в конце февраля, Пентагон впервые в истории массово применил системы искусственного интеллекта для поддержки боевых решений. Ключевую роль играет модель Claude, разработанная стартапом Anthropic и интегрированная в программный комплекс Maven от компании Palantir. Об этом сообщают Bloomberg, The Washington Post и ряд других западных изданий.
«Мозг» операции: скорость, недоступная человеку
ИИ анализирует массивы разведданных в режиме реального времени, выявляет аномалии в информационных потоках и генерирует детализированные сценарии действий — со скоростью, недостижимой для традиционных штабов.
«Claude используется как инструмент поддержки решений, параллельно с применением бомбардировщиков B‑2, истребителей F‑18 и F‑35, крылатых ракет Tomahawk и ударных беспилотников», — отмечают источники в военном ведомстве.
Система не принимает решений самостоятельно, но предлагает командирам варианты, ранжированные по эффективности и рискам, что позволяет сократить время реакции и повысить точность планирования.
Конфликт этики и стратегии
Руководство Anthropic публично выступило против смертоносного применения своей технологии, заявив, что разработка создавалась для «безопасного и полезного» ИИ.
В ответ администрация президента Дональда Трампа внесла Anthropic в список «рисковых» компаний. Пентагону и другим ведомствам дано шесть месяцев на переход на альтернативные модели.
«Если Anthropic не окажет содействия в переходе, будут применены санкции — вплоть до уголовных», — предупредил глава Белого дома.
Официальная позиция: «Решение остаётся за человеком»
Представители Пентагона подчёркивают, что искусственный интеллект выполняет лишь вспомогательную функцию.
«Окончательное решение принимают люди. ИИ лишь помогает обрабатывать данные и предлагает варианты действий», — заявили в военном ведомстве.
Тем не менее, использование Claude как системы, способной влиять на боевые решения, вызвало острую дискуссию в экспертном сообществе.
Этический вопрос: может ли алгоритм «выбирать цели»?
Критики задаются вопросом: допустимо ли, чтобы ИИ участвовал в цепочке принятия решений, от которых зависят человеческие жизни?
«Даже если финальный спусковой крючок нажимает человек, рекомендация алгоритма уже формирует его выбор. Где проходит граница ответственности?» — отмечают правозащитные организации.
Сторонники применения ИИ возражают: в условиях современного конфликта скорость обработки информации становится фактором выживания, и отказ от технологий может стоить дороже, чем их использование.
https://rusvesna.su/news/1773578065
