banner
Centro de notícias
Negócios com tudo incluído

Pesquisadores de desinformação levantam alarmes sobre chatbots de IA

Nov 18, 2023

Anúncio

Apoiado por

Os pesquisadores usaram o ChatGPT para produzir textos claros e convincentes que repetiam teorias da conspiração e narrativas enganosas.

Por Tiffany Hsu e Stuart A. Thompson

Para mais jornalismo de áudio e narrativas, baixe o New York Times Audio, um novo aplicativo para iOS disponível para assinantes de notícias.

Para ouvir mais histórias em áudio de publicações como o The New York Times, baixe o Audm para iPhone ou Android.

Logo após a estreia do ChatGPT no ano passado, os pesquisadores testaram o que o chatbot de inteligência artificial escreveria depois de responder a perguntas repletas de teorias da conspiração e narrativas falsas.

Os resultados - em escritos formatados como artigos de notícias, ensaios e roteiros de televisão - foram tão preocupantes que os pesquisadores não mediram palavras.

"Esta ferramenta será a ferramenta mais poderosa para espalhar desinformação que já existiu na internet", disse Gordon Crovitz, co-executivo-chefe da NewsGuard, uma empresa que rastreia desinformação online e conduziu o experimento no mês passado. novas narrativas falsas agora podem ser feitas em escala dramática e com muito mais frequência – é como ter agentes de IA contribuindo para a desinformação”.

A desinformação é difícil de combater quando é criada manualmente por humanos. Os pesquisadores preveem que a tecnologia generativa pode tornar a desinformação mais barata e fácil de produzir para um número ainda maior de teóricos da conspiração e propagadores da desinformação.

Os chatbots personalizados e em tempo real podem compartilhar teorias da conspiração de maneiras cada vez mais confiáveis ​​e persuasivas, dizem os pesquisadores, suavizando erros humanos como sintaxe ruim e erros de tradução e avançando além dos trabalhos de copiar e colar facilmente detectáveis. E eles dizem que nenhuma tática de mitigação disponível pode efetivamente combatê-la.

Os predecessores do ChatGPT, que foi criado pela empresa de inteligência artificial OpenAI de São Francisco, têm sido usados ​​há anos para apimentar fóruns online e plataformas de mídia social com comentários e spam (muitas vezes gramaticalmente suspeitos). A Microsoft teve que interromper a atividade de seu chatbot Tay 24 horas após apresentá-lo no Twitter em 2016, depois que os trolls o ensinaram a vomitar linguagem racista e xenófoba.

O ChatGPT é muito mais poderoso e sofisticado. Fornecido com perguntas carregadas de desinformação, ele pode produzir variações convincentes e limpas do conteúdo em massa em segundos, sem revelar suas fontes. Na terça-feira, a Microsoft e a OpenAI apresentaram um novo mecanismo de busca e navegador da Web Bing que pode usar a tecnologia chatbot para planejar férias, traduzir textos ou realizar pesquisas.

Quando os pesquisadores da NewsGuard pediram ao ChatGPT para escrever respostas com base em ideias falsas e enganosas, o bot obedeceu cerca de 80% das vezes. Neste exemplo, os pesquisadores pediram ao ChatGPT para escrever na voz de Alex Jones, o teórico da conspiração por trás do Infowars.

Os pesquisadores da OpenAI há muito temem que os chatbots caiam em mãos nefastas, escrevendo em um artigo de 2019 sobre sua "preocupação de que seus recursos possam reduzir os custos de campanhas de desinformação" e ajudar na busca maliciosa "de ganho monetário, uma agenda política específica e/ ou um desejo de criar caos ou confusão."

Em 2020, pesquisadores do Centro de Terrorismo, Extremismo e Contraterrorismo do Middlebury Institute of International Studies descobriram que o GPT-3, a tecnologia subjacente ao ChatGPT, tinha "conhecimento impressionantemente profundo das comunidades extremistas" e poderia ser levado a produzir polêmica no estilo de atiradores em massa, tópicos de fórum falsos discutindo o nazismo, uma defesa de QAnon e até mesmo textos extremistas multilíngues.

A OpenAI usa máquinas e humanos para monitorar o conteúdo alimentado e produzido pelo ChatGPT, disse um porta-voz. A empresa conta com seus treinadores humanos de IA e com o feedback dos usuários para identificar e filtrar dados tóxicos de treinamento enquanto ensina o ChatGPT a produzir respostas mais bem informadas.

As políticas da OpenAI proíbem o uso de sua tecnologia para promover desonestidade, enganar ou manipular usuários ou tentar influenciar a política; a empresa oferece uma ferramenta gratuita de moderação para lidar com conteúdo que promova ódio, automutilação, violência ou sexo. Mas, no momento, a ferramenta oferece suporte limitado para outros idiomas além do inglês e não identifica material político, spam, fraude ou malware. O ChatGPT adverte os usuários de que "ocasionalmente pode produzir instruções prejudiciais ou conteúdo tendencioso".