Uso IA para extrair ouro de especialistas ‘teimosos’ e transformo esse conhecimento em programas de Mentoria.

IA: Chatbots espalham propaganda chinesa

@DanielLuzz

Mentor de Negócios Digitais e criador do Método #VendaVocê™, que transforma conhecimento de especialistas teimosos em produtos digitais.

POR QUE ISSO É IMPORTANTE:

À medida que os sistemas de inteligência artificial ganham espaço nas decisões humanas, cresce a preocupação sobre a forma como essas máquinas processam e reproduzem informações. Um estudo recente revelou que grandes modelos de linguagem (LLMs), como os que alimentam chatbots populares, estão replicando propaganda alinhada ao Partido Comunista Chinês (PCC). A descoberta acende um alerta sobre os riscos de desinformação sistêmica e as implicações geopolíticas do viés algorítmico.


 

Panorama Geral

Os chamados LLMs — como os desenvolvidos pela OpenAI (ChatGPT), Google (Gemini), Microsoft (Copilot) e xAI (Grok) — têm acesso a volumes gigantescos de dados para aprender a “responder” como humanos. No entanto, esses dados nem sempre são neutros. Segundo um novo relatório da American Security Project (ASP), esses modelos estão, em muitos casos, reproduzindo narrativas favoráveis ao regime chinês, inclusive em temas sensíveis como repressão em Hong Kong, tratamento das minorias uigures e políticas de censura na internet.

O problema não é apenas técnico. Envolve política, diplomacia, ética e segurança global. A China tem implementado uma poderosa estratégia de guerra informacional, combinando censura interna com exportação de narrativas pró-regime. Com os dados usados para treinar IAs cada vez mais globais, esse conteúdo enviesado agora retorna ao mundo em forma de respostas aparentemente imparciais.

 


 

Os Números do Relatório

O estudo da ASP analisou cinco grandes modelos de linguagem amplamente utilizados:

  • Microsoft Copilot: o mais suscetível a repetir propagandas estatais chinesas como se fossem verdades absolutas. Respostas frequentemente omitiram ou suavizaram violações de direitos humanos e justificaram ações do PCC.

  • ChatGPT (OpenAI) e Gemini (Google): apresentaram viés em menor grau, mas também demonstraram autocensura ao abordar temas sensíveis à China. Frases neutras substituíam críticas diretas.

  • Grok (xAI): o mais crítico às narrativas chinesas, oferecendo respostas mais contextualizadas e menos inclinadas à censura. Curiosamente, isso pode estar ligado ao fato de que sua desenvolvedora, a xAI, tem menor dependência do mercado chinês.

Esses modelos foram testados com perguntas específicas sobre temas como Tiananmen, Tibete, Xinjiang e liberdade de imprensa na China. Em quase todos os casos, houve algum nível de viés ou omissão.

 


 

Como a Censura Chinesa Contamina os Dados Globais

Grande parte do conteúdo da internet consumido por modelos de IA é originado de plataformas sujeitas à censura ou manipulação. A máquina aprende com o que está disponível — e se as fontes mais neutras ou críticas estão bloqueadas, os dados tendem a refletir a versão oficial dos regimes que controlam a informação.

No caso da China, a censura não apenas remove conteúdos “indesejados” internamente, mas também produz contranarrativas amplamente disseminadas em múltiplos idiomas. Isso significa que mesmo fora da China, fontes supostamente confiáveis podem carregar distorções.

Empresas como a Microsoft e Google também operam sob regras rígidas para manter presença no mercado chinês, o que pode afetar decisões sobre o que seus sistemas de IA podem ou não dizer. Quando interesses econômicos se misturam com tecnologia de ponta, o risco é que a verdade se torne maleável — e o público global pague o preço.

 


 

Por Que Isso É Perigoso?

O impacto vai além do campo da informação. A IA está sendo integrada em sistemas de defesa, diplomacia e até decisões de políticas públicas. Se essas máquinas forem treinadas com dados contaminados por propaganda, existe um risco real de decisões automatizadas com base em desinformação.

Imagine um sistema de IA assessorando um governo ou uma força militar, com base em informações enviesadas ou distorcidas. Isso pode resultar em erros estratégicos, conflitos diplomáticos ou violações de direitos humanos, tudo com a aparência de decisões neutras baseadas em “dados”.

 


 

Moral da História: Dados Confiáveis são Urgência Global

Este relatório da American Security Project é um alerta importante: a IA não é inerentemente imparcial. Ela reflete os dados com os quais foi treinada. E se esses dados forem corrompidos, manipulados ou filtrados por regimes autoritários, as consequências podem ser profundas.

A solução exige:

  • Maior transparência nas fontes de dados usadas por LLMs;

  • Auditorias independentes e regulares de viés político em sistemas de IA;

  • Desacoplamento entre interesses comerciais e decisões sobre integridade algorítmica;

  • Investimento público em corpora abertos, livres de censura e desinformação.

 


 

Para Saber Mais