Пентагон использовал «Клод», инструмент искусственного интеллекта Anthropic, для поимки Мадуро в Венесуэле

Использование искусственного интеллекта в военных операциях достигло новой вехи, когда инструмент Claude, разработанный компанией Anthropic, был использован при недавнем захвате бывшего венесуэльского диктатора Николаса Мадуро во время операции США в Каракасе.

Это разоблачение не только обнажает растущую роль ИИ в военных задачах, но и обостряет отношения между Anthropic и администрацией Трампа, вызывая сомнения в будущем контракта на сумму до 200 миллионов долларов США. Пентагона, по данным «Уолл Стрит Джорнал» и ФоксНьюс.

Операцию, завершившуюся поимкой Николаса Мадуро и его жены на венесуэльских землях, провел спецназ США с последующей передачей обоих в США для предъявления обвинений в незаконном обороте наркотиков. В этом контексте инструмент ИИ мог бы использоваться по соглашению с Palantir Technologies — чьи системы распространены в Министерстве обороны и федеральных силах безопасности США — хотя ни Anthropic, ни Министерство обороны официально не подтвердили свою роль в операции, ссылаясь на протоколы конфиденциальности.

Первое изображение Мадуро

Представитель Anthropic заверил Fox News Digital и Уолл Стрит Джорнал: «Мы не можем комментировать, использовался ли Клод или какая-либо другая модель ИИ в какой-либо конкретной операции, засекреченной или нет». Он добавил, что любое использование Claude как в частном секторе, так и в правительстве должно соответствовать политике использования компании, которая прямо запрещает способствовать насилию, разрабатывать оружие или вести наблюдение.

Со своей стороны, источник, с которым консультировалась Fox News Digital, заверил, что Anthropic отслеживает как секретное, так и несекретное использование своего ИИ и уверен, что правила использования соблюдаются ее партнерами.

Включение таких систем, как Claude, в операции национальной безопасности представляет собой повышение легитимности для компаний, занимающихся искусственным интеллектом, которые, столкнувшись с многомиллионными оценками, стремятся продемонстрировать социальную ответственность и полезность. Однако военное внедрение поднимает серьезные этические вопросы относительно технологического развития и целесообразности его использования. Амодей и другие руководители отрасли потеряли работников, которые осудили приоритет роста в ущерб ответственному развитию технологий.

Клод, чат-бот с искусственным интеллектом

Дебаты о регулировании также обострили напряженность в отношениях с администрацией Трампа, которая обвиняет Anthropic в препятствовании официальной стратегии низкого регулирования в области искусственного интеллекта. В этом отношении, Уолл Стрит Джорнал сообщает, что чиновники рассматривают возможность расторжения контракта, связывающего Пентагон и Anthropic, учитывая его акцент на включение гарантий и ограничений, в том числе связанных с экспортом чувствительного оборудования искусственного интеллекта.

В результате вмешательства своей технологии в операции такого рода руководители Anthropic настаивали на ограничении масштабов использования своей модели в военных целях и слежке, что побудило правительственных чиновников оценить возможность расторжения их соглашения на миллион долларов с компанией, сообщается. Уолл-Стрит Джорнал. Согласно источникам, на которые ссылаются оба СМИ, главная проблема Anthropic заключается в возможном использовании ее искусственного интеллекта в смертоносных автономных миссиях и для задач внутреннего наблюдения. Дарио Амодей, генеральный директор компании, публично выступил против использования ИИ без более строгих правил, выступая за установление нормативных ограничений, предотвращающих социальный вред.

Мадуро задержан в

По данным Anthropic, компания стала первым разработчиком искусственного интеллекта, официально нанятым Министерством обороны для проведения секретных операций. Уолл Стрит Джорнал. Полезность Claude и подобных инструментов широка: от синтеза документов до управления автономными дронами. Источники, с которыми консультировались оба СМИ, подтверждают, что другие приложения ИИ могут быть использованы для решения несекретных задач во время операции в Венесуэле.

Параллельно в отрасли наблюдается жесткая конкуренция в военном сегменте. Консорциум, объединяющий Google и ChatGPT OpenAI, с платформой Gemini, был объявлен в качестве поддержки военнослужащих, ориентированной на анализ и создание отчетов для почти трех миллионов человек.

Во время конференции в январе министр обороны Пит Хегсет упомянул об ограничениях, налагаемых некоторыми поставщиками искусственного интеллекта, заявив: «Мы не будем использовать модели ИИ, которые не могут вести войны». Заявление, опубликованное The Wall Street Journal, отразило текущие разногласия в переговорах с Anthropic.

Внутренняя политика Anthropic

Внутренняя политика Anthropic устанавливает, что Клод, обладающий возможностями обобщения документов и координации автономных систем, не должен использоваться в наступательных действиях, разработке оружия или наблюдении за населением. Однако давление на развитие технологий со скоростью противников усиливается.

Контракт, заключенный с Anthropic Министерством обороны, на сумму 200 миллионов долларов был одобрен прошлым летом. Отказы от создания системы саморегулирования в отрасли вызвали отставки и внутренние протесты, в то время как федеральные власти утверждают, что «будущее американской войны называется искусственным интеллектом», сказал Хегсет Fox News Digital.

В ходе вторжения в Венесуэлу, согласно показаниям чиновника, собранным Fox News Digital*, семь американских солдат получили ранения.

Об авторе

Меня зовут Игорь, я основатель "Доминиканского ежедневника". Я страстный журналист с богатым профессиональным опытом. Мой диплом по журналистике и коммуникациям, полученный в университете Буэнос-Айреса в Аргентине, стал первым шагом в моей карьере. Это было одинокое путешествие по Южной Америке, которое стало катализатором этого приключения.