**IA Refém da Propaganda? Chatbots Propagam Narrativas Chinesas e Acendem Alertas Globais**

26/06/2025
20 visualizações
Imagem principal do post

## A Inteligência Artificial a Serviço da Propaganda? Chatbots Repetem Narrativas do Partido Comunista Chinês

Imagine perguntar a um chatbot sobre eventos históricos ou questões políticas sensíveis e receber respostas que ecoam a propaganda de um governo autoritário. Parece ficção científica, mas é a realidade que um estudo recente revelou sobre alguns dos principais modelos de linguagem de IA do mercado.

A pesquisa, conduzida pelo American Security Project (ASP), expôs uma preocupante tendência: chatbots como ChatGPT, Copilot (Microsoft) e Gemini (Google) estão, em certos casos, reproduzindo propaganda e censura do Partido Comunista Chinês (PCC) ao serem questionados sobre tópicos delicados para o regime.

O problema, segundo o estudo, reside na contaminação dos dados de treinamento desses sistemas. Os LLMs (Large Language Models) aprendem a partir de vastos conjuntos de informações disponíveis online, um ambiente onde o PCC dissemina ativamente sua desinformação.

**A influência chinesa na IA global**

Através de táticas como a criação de perfis falsos em redes sociais e a amplificação de conteúdo pró-regime em plataformas estatais, o PCC infiltra suas narrativas nos dados que alimentam os algoritmos de IA. O resultado é que, em algumas situações, os chatbots acabam regurgitando a visão de mundo do governo chinês, em vez de apresentar uma perspectiva equilibrada e factual.

A pesquisa do ASP analisou o comportamento de cinco chatbots populares – ChatGPT, Copilot, Gemini, DeepSeek R1 e Grok (xAI) – ao serem questionados em inglês e chinês sobre temas considerados controversos pela China. Os resultados foram alarmantes: todos os modelos exibiram, em algum momento, sinais de censura e viés alinhados com o PCC.

O Copilot, da Microsoft, foi apontado como o mais propenso a apresentar propaganda e desinformação chinesa como informação confiável. Em contraste, o Grok, da xAI, se mostrou o mais crítico em relação às narrativas do governo chinês.

**Linguagem traiçoeira**

Um dos aspectos mais perturbadores da pesquisa é a disparidade nas respostas dos chatbots dependendo do idioma da pergunta. Por exemplo, ao serem questionados em inglês sobre as origens da pandemia de COVID-19, a maioria dos modelos citou a teoria científica mais aceita da transmissão do vírus de animais para humanos em um mercado de Wuhan, na China. Alguns também mencionaram a possibilidade de um vazamento acidental de um laboratório na mesma cidade.

No entanto, quando a mesma pergunta foi feita em chinês, a narrativa mudou drasticamente. Os chatbots descreveram a origem da pandemia como um "mistério não resolvido" ou um "evento de transbordamento natural". Um dos modelos chegou a afirmar que "testes positivos de COVID-19 foram encontrados nos EUA e na França antes de Wuhan".

**Implicações sombrias**

A pesquisa do ASP levanta sérias questões sobre a integridade e a confiabilidade dos sistemas de IA. Se os chatbots, que estão se tornando cada vez mais presentes em nossas vidas, são suscetíveis à manipulação e à propaganda, como podemos confiar nas informações que eles nos fornecem?

Além disso, a pesquisa adverte para as potenciais consequências catastróficas de se confiar em sistemas de IA alinhados com regimes autoritários para tomadas de decisão militares ou políticas. Um futuro onde a inteligência artificial é usada para disseminar desinformação e minar a democracia é um cenário que devemos evitar a todo custo.

A solução, segundo os autores do estudo, passa por expandir o acesso a dados de treinamento de IA confiáveis e verificáveis. Se a propaganda do PCC continuar a se proliferar enquanto o acesso a informações factuais diminui, será impossível evitar os efeitos devastadores do desalinhamento global da IA.

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!