OpenAI заявила, что достигла соглашения с США. Министерство войны развернуло передовые системы искусственного интеллекта в секретных средах, одновременно вводя строгие меры предосторожности, предназначенные для предотвращения неправомерного использования технологии, сообщает корреспондент Qazinform News Agency.
Компания заявила, что соглашение включает в себя больше ограждений, чем предыдущие секретные развертывания ИИ, и попросила правительство предложить аналогичные условия другим разработчикам ИИ.
По данным OpenAI, соглашение руководствуется 3 твердыми лимитами. Его технология не может использоваться для массового внутреннего наблюдения, не может управлять автономными системами оружия и не может принимать автоматизированные решения с высокими ставками, такие как оценка стиля социального кредита.
Системы будут работать только через облачную инфраструктуру, контролируемую OpenAI, что позволит компании контролировать и обновлять механизмы безопасности. Фирма заявила, что не будет предоставлять модели без защиты от безопасности и не будет размещать их на локальных устройствах, которые потенциально могут быть использованы в смертоносном автономном оружии.
В контракте также говорится, что система ИИ может использоваться только в законных целях и должна соответствовать законам США, регулирующим деятельность разведки и наблюдения. Любое обращение с частной информацией должно осуществляться в соответствии с конституционной защитой и действующим законодательством о национальной безопасности. Система также не может использоваться для обеспечения соблюдения законов внутри страны, за исключением случаев, когда это разрешено законом.
OpenAI заявила, что поместит очистных инженеров и исследователей безопасности в правительственные команды, чтобы помочь контролировать, как используется технология, и поддерживать ее системы безопасности.
Компания заявила, что решила продолжить соглашение, потому что считает, что американские военные нуждаются в передовых возможностях ИИ, поскольку конкурирующие державы все чаще интегрируют технологию в свои собственные системы. В то же время он сказал, что гарантии были разработаны для обеспечения того, чтобы ключевые этические ограничения не были нарушены.
Ранее информационное агентство Qazinform сообщило, что OpenAI наметила шаги против неправильного использования инструментов ИИ.