Директор агентства Gosapp Digital Захар Рубцов – об использовании искусственного интеллекта в военных целях.К сожалению, не получается спрятаться от новостей, в которых бы не
фигурировали США, ибо на неделе Трамп решил, что в мире слишком скучно живется и начал новую войну. Но не простую, а с применением искусственного интеллекта! Как сообщили СМИ, во время атаки на Иран американские военные использовали нейросеть Claude. То есть раньше нейросети генерировали смешные картинки и видео с котиками, а теперь бомбят Тегеран? Давайте разбираться.
Та самая Claude AI, о которой идет речь – по сути, это как ChatGPT, только от других разработчиков (от компании Anthropic). Это семейство языковых моделей, с которым пользователи общаются как с чат-ботом и назначение у нее абсолютно гражданское. То есть это ваш рабочий/домашний ассистент. Несмотря на это власти США успешно задействовали Claude в военных целях – в рамках спецоперации по захвату президента Венесуэлы Николаса Мадуро. В результате разразился большой скандал, о котором поговорим чуть позже.
А что вообще ИИ делает на таких спецоперациях и войнах? В чем его задача?
Нейросеть здесь выступает, скорее, как ассистент. Анализирует большие массивы данных из различных источников (спутниковые снимки, перехваченные коммуникации, сенсорные данные), выявляя паттерны и ключевую информацию. Это позволяет обрабатывать информацию во много раз быстрее. Допустим, на определенный объем работы нейросеть тратит несколько часов, в то время как у аналитиков на это ушло бы несколько дней. Также ИИ помогает с выбором и приоритизацией целей, может делать симуляцию результатов атак в режиме реального времени и прочее. Главное – ИИ существенно экономит время.
Важно: разумеется, американские военные не заходят на сайт Claude или сайт ChatGPT (как это делают обычные пользователи) и не загружают в чат разведданные. ИИ интегрирован во внутренние системы профильных ведомств.
Вернемся к Мадуро. Когда стало известно, что при захвате президента Венесуэлы Пентагон задействовал Claude, его разработчики (Anthropic) выступили с резкой критикой американских властей. Компания выразила протест, указав на условия использования, по которым нельзя использовать Claude в насильственных целях, для разработки оружия или для слежки. В ответ Трамп обиделся, запретил пользоваться Claude, а в министерстве войны США обвинили Anthropic в «высокомерии и предательстве» (в общем, игра в американских патриотов). Тем не менее, Пентагон пока продолжит пользоваться этой нейросетью в своих целях – и мы это видим на примере с Ираном.
А что в итоге? Вполне ожидаемо, что ИИ все глубже влезает в геополитику, и это наше неизбежное будущее. Но так и хочется спросить, а готовы ли мы к нему? Например, кто будет виноват, если нейросеть выберет цель и, допустим, ошибется? Человек, который нажал «старт», разработчик, который обучил модель, или сама система?
Печать