Группировки из России, Израиля, Ирана и Китая использовали искусственный интеллект (ИИ) для проведения кампаний по дезинформации в сети. Об этом, как пишет британская газета The Guardian, говорится в отчете компании OpenAI, которая является разработчиком чат-бота ChatGPT.
Как уточнили в компании, злоумышленники из упомянутых выше стран использовали ее продукты для производства и публикации дезинформации в интернете, а также для перевода таких публикаций на другие языки. При этом в OpenAI отметили, что им удалось сорвать использование своих продуктов для дезинформационных кампаний. В результате ни одна из них не смогла охватить широкую аудиторию.
Как пишет Guardian, 39-страничный отчет, выпущенный OpenAI, стал самым подробным документом на тему использования ИИ в целях дезинформации и пропаганды.
Как утверждают в компании, ей удалось пресечь две операций по созданию и распространению Россией контента, критикующего США, Украину и страны Балтии. В одной из них разработка OpenAI использовалась для отладки кода и создания бота, публиковавшего контент в Telegram. В свою очередь, Китай провел кампанию операцию влияния, в рамках которой ИИ использовался для создания текстов на английском, китайском, японском и корейском языках, которые затем были опубликованы в соцсети X.
В Иране ИИ применили для создания контента против США и Израиля, который затем перевели на английский и французский языки. Израильская политтехнологическая фирма Stoic с помощью ИИ создавала тексты, в которых протестующих против войны в Газе обвиняли в антисемитизме, а затем публиковала их в соцсетях через сеть фейковых аккаунтов.