A lavagem de informação na era da IA

A expressão Information Laundering — lavagem de informação — não é ainda de uso comum fora de círculos especializados, mas descreve um fenómeno que já está plenamente instalado no espaço público. Ouvi de novo o termo recentemente e fiquei com a sensação clara de que estamos a subestimar o seu alcance.

Talvez porque, ao contrário da desinformação clássica, esta prática não se apresenta somente como mentira. Pelo contrário: é silenciosa, opera de forma discreta, cumulativa e com um impacto que só se percebe quando já está instalado.

Nas crises contemporâneas, a manipulação informativa deixou de ser apenas um subproduto do caos. Tornou-se uma ferramenta estratégica para desestabilizar, descredibilizar e influenciar pessoas, organizações e Estados.

O caso da guerra na Ucrânia é paradigmático, mas não é excecional. Hoje sabemos que campanhas coordenadas de desinformação russa estão a infiltrar-se no próprio ecossistema da inteligência artificial generativa. Não porque a IA ‘mente’, mas porque é treinada num ecossistema digital que pode ser intencionalmente contaminado.

Aparência de credibilidade e inundação informativa

Quando um verdadeiro exército de sites é criado para disseminar narrativas falsas ou enviesadas — muitas vezes escritas para serem bem indexadas por motores de busca — o efeito não se limita ao público humano. Esses conteúdos passam a fazer parte do tecido informacional da Internet.

À medida que se tornam predominantes, modelos de IA como o ChatGPT, Claude, Gemini, Grok ou Perplexity podem incorporá-los nos seus processos ou considerá-los fontes “potencialmente válidas”. O resultado é simples e inquietante: respostas que repetem, normalizam ou amplificam propaganda. É isto a que chamamos de Lavagem de Informação.

Tal como na lavagem de dinheiro, a lógica é a da legitimação progressiva. Uma informação falsa ou manipulada percorre diferentes canais, muda de contexto, ganha novas “assinaturas” e, ao fim de algum tempo, parece limpa. Credível. Aceitável.

Tal como na lavagem de dinheiro, a lógica é a da legitimação progressiva. Uma informação falsa ou manipulada percorre diferentes canais, muda de contexto, ganha novas “assinaturas” e, ao fim de algum tempo, parece limpa. Credível. Aceitável.

Mas isto não é apenas desinformação, eu chamaria de engenharia reputacional aplicada à mentira.

Se deslocarmos o foco da geopolítica para a escala organizacional ou individual, o mecanismo mantém-se. Onde há Estados, há adversários; onde há empresas, há concorrentes; onde há líderes, CEO’s ou figuras públicas, há críticos organizados, haters ou campanhas coordenadas.

Conteúdos repetitivos, ataques subtis à reputação, narrativas insinuadas como “dúvidas legítimas”. A escala pode variar, mas o impacto é real. Entramos aqui no domínio da guerra cognitiva, ainda pouco discutida, exceto nos meios militares.

Neste processo, as narrativas não se limitam a redes sociais. Espalham-se por múltiplos sites que aparentam ser meios independentes, blogs especializados ou plataformas de opinião. Frequentemente, esta técnica é combinada com outra: a inundação informativa. Grandes volumes de conteúdo são lançados para ocupar o espaço mediático, abafar vozes críticas e diluir factos verificados.

Não é um fenómeno novo — grupos extremistas como a Al Qaeda já o faziam — mas a tecnologia atual deu-lhe uma escala sem precedentes. O mecanismo é tecnicamente simples, mas com efeitos profundos: a falsidade percorre uma cadeia de validações até adquirir aparência de credibilidade.

E se já desconfiávamos das redes sociais como veículos de desinformação, a integração da IA neste ecossistema elevou o problema a outro patamar. Não se trata de alarmismo. Trata-se de realismo estratégico.

Num cenário de crise contínua — aquilo a que hoje se chama permacrise — este fenómeno encontra terreno fértil. As pessoas estão emocionalmente vulneráveis, à procura de orientação, de segurança, de algo em que acreditar. Públicos internos, clientes, cidadãos e decisores tornam-se mais suscetíveis a conteúdos emocionais, imagens chocantes, rumores dramatizados e narrativas que alimentam o pânico. A ciência ajuda-nos a perceber porquê.

Estudos em neurociência e psicologia cognitiva mostram que a desinformação prospera porque explora vulnerabilidades que todos partilhamos. Em contexto de stress, as emoções ganham primazia sobre a avaliação racional. Procuramos respostas rápidas. Confiamos em quem comunica com segurança.

E, ironicamente, estes mesmos mecanismos afetam também quem comunica oficialmente.

O fator humano na comunicação de crise

Na comunicação de crise, o fator humano é frequentemente o elo mais frágil. Viéses cognitivos entram em ação sem que nos apercebamos. Eis alguns exemplos:

  • O viés da simpatia, por exemplo, surge quando queremos ser prestáveis. Em plena crise, um colaborador pode achar que está a ajudar um cliente ansioso ou um jornalista insistente e acaba por partilhar informação que ainda não devia ser pública. Pequenos detalhes “inofensivos” transformam-se em ruído, confusão ou risco reputacional.
  • Já o viés da autoridade leva-nos a confiar automaticamente em quem parece ocupar uma posição legítima. Um email que aparenta vir da liderança, de uma entidade oficial ou de um “especialista” pode desencadear a partilha de dados sensíveis sem verificação adequada. Em contextos de pressão, estes atalhos mentais tornam-se perigosos.

Porque a resposta não pode ser improvisada

Perante este cenário, a resposta não pode ser improvisada. A transparência — em crise e fora dela — continua a ser um pilar central, porque a opacidade alimenta o espaço da manipulação.

Porta-vozes e lideranças treinadas reduzem o risco de mensagens contraditórias ou emocionalmente reativas. Protocolos definidos antes da crise evitam que o rumor corra mais depressa do que a organização. Processos internos de verificação ajudam a distinguir o real do fabricado antes que a narrativa se consolide.

E, sobretudo, verificar e desmentir deixa de ser opcional. Mas nada disto funciona de forma isolada. A resposta à desinformação exige uma estratégia integrada, que envolva media, stakeholders internos, sociedade civil e, quando aplicável, entidades públicas. A narrativa só se sustenta quando é construída com consistência e legitimidade.

A pergunta final

A pergunta final é desconfortável, mas necessária: se amanhã alguém lançar uma campanha de lavagem de informação sobre si ou sobre a sua organização — com imagens fabricadas, perfis falsos, “fontes credíveis” e mensagens repetidas em volume — estaria preparado para responder?

Estaria disposto a priorizar a transparência, mesmo que isso implique admitir vulnerabilidades ou limites?

Se a resposta for “não tenho a certeza”, então este é o momento certo para agir. A credibilidade não se constrói no dia da crise. Constrói-se muito antes, com treino, protocolos, capacidade de verificação e consciência de que, hoje, a batalha não é apenas pelos factos, mas pela forma como estes são percebidos, legitimados e recordados.

Texto publicado no Observatório Brasileiro de Comunicação de Crise a 27JAN26.

Crio uma cultura de comunicação de crises.

ELSA LEMOS

Sou a Elsa Lemos. Gosto de extremos. De deixar fluir a minha criatividade e de ter tudo organizado. Do caos e da ordem. Da guerra e da paz. No meu trabalho juntei o melhor dos dois mundos: a comunicação e as crises.
A comunicação mais temida é a minha paixão. É o meu desafio diário. Amo preparar os outros para o pior que pode acontecer. Preparar a sua comunicação a todos os níveis porque tudo é comunicação: o que é dito e o que não o é.