Использование искусственного интеллекта в военных операциях достигло новой вехи, когда инструмент Claude, разработанный компанией Anthropic, был использован при недавнем захвате бывшего венесуэльского диктатора Николаса Мадуро во время операции США в Каракасе.
Это разоблачение не только обнажает растущую роль ИИ в военных задачах, но и обостряет отношения между Anthropic и администрацией Трампа, вызывая сомнения в будущем контракта на сумму до 200 миллионов долларов США. Пентагона, по данным «Уолл Стрит Джорнал» и ФоксНьюс.
Операцию, завершившуюся поимкой Николаса Мадуро и его жены на венесуэльских землях, провел спецназ США с последующей передачей обоих в США для предъявления обвинений в незаконном обороте наркотиков. В этом контексте инструмент ИИ мог бы использоваться по соглашению с Palantir Technologies — чьи системы распространены в Министерстве обороны и федеральных силах безопасности США — хотя ни Anthropic, ни Министерство обороны официально не подтвердили свою роль в операции, ссылаясь на протоколы конфиденциальности.
Представитель Anthropic заверил Fox News Digital и Уолл Стрит Джорнал: «Мы не можем комментировать, использовался ли Клод или какая-либо другая модель ИИ в какой-либо конкретной операции, засекреченной или нет». Он добавил, что любое использование Claude как в частном секторе, так и в правительстве должно соответствовать политике использования компании, которая прямо запрещает способствовать насилию, разрабатывать оружие или вести наблюдение.
Со своей стороны, источник, с которым консультировалась Fox News Digital, заверил, что Anthropic отслеживает как секретное, так и несекретное использование своего ИИ и уверен, что правила использования соблюдаются ее партнерами.
Включение таких систем, как Claude, в операции национальной безопасности представляет собой повышение легитимности для компаний, занимающихся искусственным интеллектом, которые, столкнувшись с многомиллионными оценками, стремятся продемонстрировать социальную ответственность и полезность. Однако военное внедрение поднимает серьезные этические вопросы относительно технологического развития и целесообразности его использования. Амодей и другие руководители отрасли потеряли работников, которые осудили приоритет роста в ущерб ответственному развитию технологий.

Дебаты о регулировании также обострили напряженность в отношениях с администрацией Трампа, которая обвиняет Anthropic в препятствовании официальной стратегии низкого регулирования в области искусственного интеллекта. В этом отношении, Уолл Стрит Джорнал сообщает, что чиновники рассматривают возможность расторжения контракта, связывающего Пентагон и Anthropic, учитывая его акцент на включение гарантий и ограничений, в том числе связанных с экспортом чувствительного оборудования искусственного интеллекта.
В результате вмешательства своей технологии в операции такого рода руководители Anthropic настаивали на ограничении масштабов использования своей модели в военных целях и слежке, что побудило правительственных чиновников оценить возможность расторжения их соглашения на миллион долларов с компанией, сообщается. Уолл-Стрит Джорнал. Согласно источникам, на которые ссылаются оба СМИ, главная проблема Anthropic заключается в возможном использовании ее искусственного интеллекта в смертоносных автономных миссиях и для задач внутреннего наблюдения. Дарио Амодей, генеральный директор компании, публично выступил против использования ИИ без более строгих правил, выступая за установление нормативных ограничений, предотвращающих социальный вред.

По данным Anthropic, компания стала первым разработчиком искусственного интеллекта, официально нанятым Министерством обороны для проведения секретных операций. Уолл Стрит Джорнал. Полезность Claude и подобных инструментов широка: от синтеза документов до управления автономными дронами. Источники, с которыми консультировались оба СМИ, подтверждают, что другие приложения ИИ могут быть использованы для решения несекретных задач во время операции в Венесуэле.
Параллельно в отрасли наблюдается жесткая конкуренция в военном сегменте. Консорциум, объединяющий Google и ChatGPT OpenAI, с платформой Gemini, был объявлен в качестве поддержки военнослужащих, ориентированной на анализ и создание отчетов для почти трех миллионов человек.
Во время конференции в январе министр обороны Пит Хегсет упомянул об ограничениях, налагаемых некоторыми поставщиками искусственного интеллекта, заявив: «Мы не будем использовать модели ИИ, которые не могут вести войны». Заявление, опубликованное The Wall Street Journal, отразило текущие разногласия в переговорах с Anthropic.

Внутренняя политика Anthropic устанавливает, что Клод, обладающий возможностями обобщения документов и координации автономных систем, не должен использоваться в наступательных действиях, разработке оружия или наблюдении за населением. Однако давление на развитие технологий со скоростью противников усиливается.
Контракт, заключенный с Anthropic Министерством обороны, на сумму 200 миллионов долларов был одобрен прошлым летом. Отказы от создания системы саморегулирования в отрасли вызвали отставки и внутренние протесты, в то время как федеральные власти утверждают, что «будущее американской войны называется искусственным интеллектом», сказал Хегсет Fox News Digital.
В ходе вторжения в Венесуэлу, согласно показаниям чиновника, собранным Fox News Digital*, семь американских солдат получили ранения.
