O fabricante do ChatGPT diz que as operações de influência não conseguiram ganhar força ou alcançar grandes públicos.
A empresa de inteligência artificial OpenAI anunciou que interrompeu campanhas de influência secreta originárias da Rússia, China, Israel e Irã.
O criador do ChatGPT disse na quinta-feira que identificou cinco campanhas envolvendo “tentativas enganosas de manipular a opinião pública ou influenciar resultados políticos sem revelar a verdadeira identidade ou intenções dos atores por trás delas”.
As campanhas usaram modelos da OpenAI para gerar textos e imagens que foram postados em plataformas de mídia social como Telegram, X e Instagram, em alguns casos explorando as ferramentas para produzir conteúdo com “menos erros de linguagem do que seria possível para operadores humanos”. OpenAI disse.
A Open AI disse que encerrou contas associadas a duas operações russas, apelidadas de Bad Grammer e Doppelganger; uma campanha chinesa conhecida como Spamouflage; uma rede iraniana chamada União Internacional de Mídia Virtual; e uma operação israelense chamada Zero Zeno.
“Estamos comprometidos em desenvolver IA segura e responsável, o que envolve projetar nossos modelos com a segurança em mente e intervir proativamente contra o uso malicioso”, disse a start-up com sede na Califórnia em comunicado publicado em seu site.
“Detetar e interromper abusos multiplataforma, como operações de influência secreta, pode ser um desafio porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído. Mas estamos empenhados em encontrar e mitigar este abuso em grande escala, aproveitando o poder da IA generativa.”
Bad Grammar e Doppelganger geraram em grande parte conteúdo sobre a guerra na Ucrânia, incluindo narrativas que retratam a Ucrânia, os Estados Unidos, a OTAN e a União Europeia de uma forma negativa, de acordo com a OpenAI.
A Spamouflage gerou textos em chinês, inglês, japonês e coreano que criticavam críticos proeminentes de Pequim, incluindo o ator e ativista tibetano Richard Gere e o dissidente Cai Xia, e destacavam abusos contra os nativos americanos, de acordo com a startup.
A União Internacional de Mídia Virtual gerou e traduziu artigos que criticavam os EUA e Israel, enquanto Zero Zeno mirou na agência das Nações Unidas para refugiados palestinos e “islamitas radicais” no Canadá, disse a OpenAI.
Apesar dos esforços para influenciar o discurso público, as operações “não parecem ter beneficiado de um aumento significativo do envolvimento ou do alcance do público como resultado dos nossos serviços”, afirmou a empresa.
O potencial da IA ser usada para espalhar desinformação emergiu como um importante tema de discussão, à medida que eleitores em mais de 50 países votavam naquele que foi considerado o maior ano eleitoral da história.
Na semana passada, as autoridades do estado americano de New Hampshire anunciaram que indiciaram um consultor político do Partido Democrata por mais de duas dúzias de acusações por supostamente orquestrar chamadas automáticas que usaram uma representação do presidente dos EUA, Joe Biden, criada pela IA, para exortar os eleitores a não votarem no primárias presidenciais do estado.
Durante o período que antecedeu as eleições parlamentares no Paquistão, em fevereiro, o ex-primeiro-ministro encarcerado, Imran Khan, usou discursos gerados por IA para reunir apoiadores em meio à proibição governamental de comícios públicos.