ChatGPT на службе
Ведущие разработчики искусственного интеллекта — OpenAI, Google, Anthropic и xAI — обсуждают с Пентагоном возможность адаптации своих технологий для работы в изолированных военных сетях, полностью отключенных от глобального интернета. Экспертное сообщество обращает внимание на существенные риски такой интеграции, так как современные нейросети подвержены так называемым галлюцинациям, когда алгоритм формирует ложную интерпретацию данных. Подобные сбои способны привести к нанесению ударов по гражданским объектам или заведомо неверным целям.
Компания OpenAI уже развернула специализированную версию ChatGPT на закрытом ресурсе Министерства войны США. Ранее там стали доступны инструменты Gemini и Grok. Как утверждает разработчик, модифицированный чат-бот получил дополнительные механизмы защиты при обработке чувствительной информации. Пока функционал системы ограничен вспомогательными операциями: анализом и обобщением нормативных документов, подготовкой материалов по госзакупкам и контрактам, составлением внутренних отчетов. В OpenAI подчеркивают, что все загружаемые данные остаются в изолированном контуре и не используются для дообучения публичных версий.
Тем не менее, оптимизм разделяют не все. Представитель организации Public Citizen Дж. Б. Бранч убежден, что передача любой закрытой информации нейросетевым алгоритмам неизбежно создает потенциальные каналы утечки. Даже в условиях изолированной системы сохраняется риск несанкционированного доступа, а сама логика расширения круга лиц, допущенных к работе с секретными сведениями, вступает в противоречие с фундаментальными принципами режимного делопроизводства.
Летом 2025 года американское оборонное ведомство заключило с Anthropic, Google, OpenAI и xAI контракты стоимостью до $200 млн каждый на разработку ИИ-решений в сфере национальной безопасности. Все три вида вооруженных сил — сухопутные войска, военно-морской флот и военно-воздушные силы — официально интегрировали ИИ в свои операционные процессы. В авиационном командовании отметили, что внедрение Grok знаменует начало постепенного отказа от устаревших систем, использовавшихся на ранних этапах внедрения коммерческих моделей.
Изначально платформа работала исключительно с Google Gemini. Незадолго до рождественских праздников к ней подключили неоднозначно воспринятый Grok, а теперь и ChatGPT — модель, с которой три года назад началась революция в сфере генеративного искусственного интеллекта. Все три инструмента представляют собой модифицированные версии общедоступных алгоритмов, сертифицированные для работы с конфиденциальными, но несекретными сведениями. Получение разрешения на обработку данных под грифом «секретно» и «совершенно секретно» требует прохождения значительно более строгих процедур.
Помощник командира
Директор Центра комплексных европейских и международных исследований НИУ ВШЭ Василий Кашин в беседе с ВФокусе Mail подчеркнул, что искусственный интеллект не будущее, а уже настоящее военных конфликтов.
Искусственный интеллект вовсю используется в военной сфере, в том числе в летальных системах оружия, в частности обеими сторонами конфликта на Украине. Все ранее существовавшие ограничения фактически преодолены, и я не вижу сейчас каких-либо неразрешимых проблем для дальнейшего применения, — заявил Кашин.
Ключевое направление применения ИИ сегодня — анализ огромных массивов разведывательной информации. «Искусственный интеллект радикально сокращает время и повышает производительность, позволяет быстро реагировать на новые данные и в целом делает поле боя гораздо более опасным. Время между обнаружением цели и ее поражением будет продолжать сокращаться», — пояснил эксперт.
Не менее важна, по мнению Кашина, и рутинная работа. «Он может брать на себя большое количество задач, связанных с отчетностью, учетом, снабжением, учетом материальных ресурсов и так далее. В целом он способен радикально разгрузить офицера, потому что значительная часть его рабочего времени занята именно этим — отчетами, проверками, бюрократией, финансовыми вопросами», — отметил он.
Кашин подчеркнул, что ИИ — это помощник, а не замена командиру. «При планировании предполагается, что искусственный интеллект будет задействован в так называемых системах поддержки принятия решений. Решение все равно будет принимать соответствующий командир, и он будет нести за него ответственность. Искусственный интеллект призван помочь ему за счет организации данных, их систематизации, может выдавать отдельные рекомендации, чтобы ускорить принятие решений. Но ответственность — на человеке», — заявил политолог.
Эксперт напомнил, что автоматизация управления оружием не нова. «Компьютерная техника управляет летальным оружием уже давно, задолго до разговоров о всяком искусственном интеллекте. Она была способна самостоятельно управлять летальными системами вооружения, особенно, например, в противовоздушной и противоракетной обороне. Еще в 1960-е годы относительно простые компьютерные системы вполне себе управляли ПВО, ударным ракетным оружием и артиллерией. Они проводили автоматическую селекцию целей, определяли наиболее опасные из них, помогали расчету выполнять рутинные операции для подготовки к ведению огня», — напомнил Кашин.
По его словам, проблемы с некорректной работой систем возникали и раньше. «На прошлых этапах конфликтов было множество случаев, когда некорректная работа этих систем приводила к потерям, ошибкам. Но как-то с этим жили, потому что выигрыш от их применения на порядок превышал любые издержки», — добавил он.
Отдельно Кашин остановился на популярном страхе о «восстании машин». «Мне кажется, у ИИ отсутствует собственная мотивация. Когда мы говорим о восстании, в его основе лежат человеческие мотивы, связанные прежде всего с эмоциями и восприятием реальности. Человек, который против кого-то восстает, имеет душу, он недоволен своим положением, он хочет получить для себя блага или признание. Поэтому он идет на те или иные действия. У искусственного интеллекта — насколько нам известно — этих мотивов нет», — заключил политолог.


