OpenAI опубликовала ключевые положения своего соглашения с Министерством обороны США, заявив о наличии жестких «красных линий» в контракте. Это произошло на фоне публичного конфликта Пентагона с Anthropic.
В блоге OpenAI раскрыла формулировки договора, согласно которым ее модели не могут использоваться для массового наблюдения за гражданами США, управления автономными системами вооружения или принятия высокорисковых автоматизированных решений — в частности, создания систем «социального рейтинга».
Компания подчеркнула, что сохраняет «полный контроль» над системой безопасности, развертывает решения через облачную инфраструктуру, а допущенные сотрудники OpenAI остаются вовлеченными в процессы эксплуатации. В случае нарушения условий контракт может быть расторгнут. В OpenAI заявили, что соглашение «содержит больше защитных механизмов, чем любое предыдущее соглашение о развертывании ИИ в закрытых сетях, включая соглашение Anthropic».
Глава компании Сэм Альтман в серии публикаций в соцсетях подтвердил, что OpenAI не согласилась бы на использование технологий для массовой слежки, поскольку это «нарушает Конституцию». По его словам, он был бы готов покинуть пост, если подобная практика стала бы законной.
Сделка OpenAI с Пентагоном была заключена после того, как администрация Дональда Трампа распорядилась прекратить сотрудничество с Anthropic и объявить компанию «риском для цепочки поставок». Конфликт возник из-за отказа Anthropic предоставить военным доступ к модели Claude для «любого законного использования».
Глава Anthropic Дарио Амодей заявил, что компания «предпочтет не работать с Пентагоном», чем согласиться на применение технологий способами, которые могут «подрывать, а не защищать демократические ценности». Речь, по его словам, идет прежде всего о «массовой внутренней слежке» и «полностью автономном оружии». После встречи с министром обороны Питом Хегсетом Амодей подчеркнул, что такие сценарии «никогда не включались в наши контракты».
В Anthropic также заявили, что предложенные Пентагоном компромиссные формулировки фактически позволяли бы игнорировать ограничения «по желанию», несмотря на публичные заявления ведомства. При этом компания готова поддерживать использование ИИ для «законных внешнеразведывательных и контрразведывательных миссий», но считает массовую слежку несовместимой с демократическими принципами.
Со стороны Пентагона звучат иные аргументы. Замминистра обороны Эмиль Майкл заявил, что военным «нужно доверять», а соответствующие ограничения уже закреплены в законодательстве. Ведомство также пригрозило в случае несогласия задействовать Defense Production Act, позволяющий обязать компанию выполнять оборонные заказы, а также формально признать ее «риском для цепочки поставок».
OpenAI выступила против присвоения Anthropic такого статуса и сообщила, что предлагала правительству распространить аналогичные условия контрактов на все ИИ-лаборатории. В компании подчеркнули, что «будущее потребует глубокого сотрудничества между правительством и ИИ-компаниями», а нынешняя эскалация — «плохой способ начать новый этап».
