OpenAI раскрыла новые детали о случаях неправомерного использования своих моделей в онлайн-мошенничестве и координированных информационных кампаниях. Компания сообщила, что удалила связанные учетные записи и усилила меры защиты, передает Qazinform.com.

OpenAI сообщила о пресечении мошеннических схем с использованием ИИ, сообщает Qazinform.com

В отчете за февраль 2026 года OpenAI описала несколько эпизодов, когда ее инструменты применялись для создания контента в рамках мошеннических операций и обманной активности в интернете.

В числе выявленных схем — романтические и так называемые «задачные» мошенничества. Они строились по схожему сценарию: злоумышленники знакомились с жертвами через социальные сети или мессенджеры, выстраивали эмоциональный контакт, а затем запрашивали денежные переводы.

Один из кейсов, получивший название «Приманка даты операции», касался продвижения фиктивного сервиса знакомств для молодежи в Индонезии. С помощью ИИ создавались рекламные сообщения и чат-боты, после чего общение переводилось в частные каналы, где пользователям предлагали совершить серию платежей.

В другом случае — «Операция “Лжесвидетель”» — злоумышленники выдавали себя за юристов, обещающих помочь вернуть ранее утраченные средства. Согласно отчету, они генерировали официально выглядящие обращения и требовали предоплату до оказания каких-либо услуг.

Компания также описала несколько координированных онлайн-кампаний, в рамках которых инструменты ИИ использовались для подготовки статей, публикаций в соцсетях и комментариев по геополитическим темам. В ряде случаев материалы распространялись на разных платформах и на нескольких языках. При этом в OpenAI отметили, что уровень вовлеченности аудитории чаще зависел от масштаба аккаунтов, распространявших контент, а не от самого факта использования ИИ.

Так, в рамках «Операции Trolling Stone» создавались и переводились публикации о задержании российской фигуры в Аргентине. Материалы размещались на платформах, включая Facebook, YouTube и Medium, что, по оценке компании, выглядело как попытка имитировать органическую общественную реакцию.

Кроме того, OpenAI заявила, что выявила попытки использовать ее модели при планировании или документировании более широких операций влияния в интернете. Часть запросов была автоматически отклонена как нарушающая политику компании. При этом в отчете отмечается, что часть контента, распространяемого онлайн, вероятно, не была создана с помощью инструментов OpenAI.

В компании подчеркнули, что продолжают мониторинг возможных злоупотреблений и взаимодействуют с отраслевыми партнерами и государственными органами для противодействия мошеннической и дезинформационной деятельности, связанной с ИИ.

Ранее Qazinform сообщал, что сингапурская компания Bitdeer продала все свои биткойн-активы, намереваясь направить средства на развитие проектов в сфере искусственного интеллекта и высокопроизводительных вычислений.

от Cyber State Team

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *