Por Darlene Menconi*
Pesquisa inédita do Observatório Lupa, ligado à agência de checagem Lupa, revela que o número de notícias falsas criadas por Inteligência Artificial (IA) triplicou no período de um ano. Os dados do 1º Panorama da Desinformação no Brasil indicam que os conteúdos falsos criados por IA generativa saltaram de 39 casos em 2024 para 159, em 2025 – crescimento de 308%.
O levantamento mapeia tendências, alvos e as principais táticas de desinformação que circulam no ambiente digital brasileiro. Se em 2024 a maior parte dos golpes digitais foi utilizada para fraudes, em 2025 as fábricas de mentiras se tornaram uma arma política.
Antes de tudo, é preciso estabelecer uma distinção conceitual entre os termos abrigados sob o guarda-chuva das chamadas fake news.
O que diferencia informação falsa, ou misinformation, de desinformação, ou disinformation, é a intenção maliciosa. A informação falsa é a disseminação de conteúdo incorreto, impreciso ou falso sem intenção de causar dano – é aquele vídeo ou mensagem supostamente inocentes, sobre os quais não se tem certeza se são mentira ou verdade.
Enquanto a desinformação é a fabricação e o compartilhamento deliberado de conteúdo falso ou manipulado para enganar, prejudicar ou manipular a opinião pública. Já mal-information utiliza dados verdadeiros fora de contexto ou empregados de má fé para provocar prejuízo a pessoas, organizações ou países.
De acordo com o Relatório de Riscos Globais 2026, elaborado pelo Fórum Econômico Mundial, a desinformação está entre as cinco principais ameaças à humanidade no curto e médio prazo. Os danos resultantes dessa avalanche de falsidade abrangem desde manifestações violentas e crimes de ódio até atos de terrorismo. E representam uma ameaça às democracias, sobretudo em ano eleitoral, como 2026.
A desinformação segue o ritmo dos grandes acontecimentos
Se em 2024 a IA foi usada majoritariamente para golpes digitais (36% do total), em 2025 houve uma mudança de perfil. De acordo com o Panorama da Desinformação no Brasil, mais de três quartos dos conteúdos gerados por IA envolviam imagem ou voz de figuras públicas, principalmente políticos, revelando que a tecnologia tem sido utilizada para fabricar mentiras com alto potencial de dano político.
Os pesquisadores constataram que os momentos de maior tensão pública, como eleições, eventos climáticos ou decisões políticas, funcionam como gatilhos para conteúdos virais falsos, tanto em 2024 quanto em 2025.
O Panorama da Desinformação no Brasil avaliou 617 conteúdos verificados pela Agência Lupa em 2025 e 839 publicações de 2024.
O maior volume de checagem em 2025 se concentrou em janeiro e novembro. Novembro por conta da realização da COP30, a conferência do clima realizada em Belém, e a decretação da prisão preventiva do ex-presidente Jair Bolsonaro. Janeiro apareceu na liderança impulsionado pelos falsos boatos sobre a taxação do Pix.
Em 2024, os principais picos ocorreram entre julho e outubro, por conta do período eleitoral, e entre o fim de abril e o mês de maio, quando ocorreram as enchentes no Rio Grande do Sul e surgiram boatos, informações distorcidas e conteúdos enganosos sobre a tragédia.
Proliferação em rede e em múltiplas plataformas
Uma constatação importante é que a desinformação circula em rede. Ou seja, os dados raramente ficam restritos a uma única plataforma, ampliando o alcance e tornando ainda mais desafiador seu enfrentamento.
O WhatsApp, da Meta, permanece a principal via de desinformação, mas perdeu a hegemonia. Sua participação caiu de quase 90% em 2024 para 46% em 2025, indicando uma maior dispersão. Apesar disso, houve a circulação cruzada entre Facebook e Instagram, igualmente plataformas da Meta, de Mark Zuckerberg.
O Kwai entrou pela primeira vez no ranking das 10 principais vias de transmissão de desinformação, enquanto o X (antigo Twitter) perdeu espaço.
O vídeo é a principal isca emocional, quase sempre acompanhado de um texto curto que legitima a narrativa falsa – ainda que contenha erros grosseiros.
Recomendações estratégicas do Observatório Lupa
Os autores do relatório trazem recomendações úteis para quem pretende se proteger da desinformação ao longo de 2026:
Para a Mídia: Adotar protocolos editoriais para eventos previsíveis, como eleições, julgamentos e grandes crises. E explicar ao público como os vídeos manipulados operam emocionalmente e como podem ser persuasivos. Além de evitar reproduzir boatos virais.
Para os Checadores: Preparar respostas para períodos com eventos de grande impacto e repercussão, e antecipar narrativas enganosas antes que ganhem escala.
Para o Poder Público: Avançar em marcos legais de transparência, rotulagem e responsabilização por conteúdos gerados por IA, além de aumentar a clareza e a frequência das comunicações oficiais para reduzir o espaço das narrativas falsas.
Para a Sociedade: Expandir programas de educação midiática e conscientização focados no reconhecimento de conteúdos gerados por IA e narrativas enganosas. Fortalecer iniciativas comunitárias, coordenar ações para respostas rápidas e incentivar denúncias de conteúdos suspeitos, sobretudo em aplicativos de mensagens como o WhatsApp.
Ainda assim, todo cuidado é pouco. Na guerra da desinformação, todos somos vítimas.
* Darlene Menconi é presidente da APJor.