Se as eleições de 2018 foram chamadas de “eleições do WhatsApp” e as de 2022 as “eleições do TikTok”, o pleito de 2026 podem ser consideradas a Era das Eleições Sintéticas. O conceito, que parecia limitado à ficção científica há alguns anos, agora caracteriza o núcleo das campanhas políticas, em um cenário onde a Inteligência Artificial (IA) deixou de ser uma ferramenta de suporte para se tornar o motor principal da narrativa, da produção de conteúdo e da comunicação direta com o eleitores.
O Fim da Comunicação de Massa
A grande transformação de 2026 não se limita apenas à velocidade, mas também à personalização extrema. Com o uso de Modelos de Linguagem Grandes (LLMs) personalizados, as campanhas deixaram de lado o “microtargeting” convencional. Atualmente, estamos na era da persuasão personalizada. Modelos de IA podem examinar o rastro digital de um indivíduo e produzir, em questão de segundos, milhares de versões diferentes de um mesmo projeto político. O sistema produz um texto técnico para um eleitor que se preocupa com a economia, enquanto para um jovem ativista, o mesmo projeto é expresso em uma linguagem voltada para a mobilização social. A interação é tão natural que o eleitor frequentemente pensa que está conversando com um voluntário humano, quando, na realidade, está sendo influenciado por um “agente de influência sintético”.
Táticas de Manipulação
Neste ciclo eleitoral, a manipulação tornou-se cirúrgica. Entre as táticas mais observadas, destacam-se:
Vazamentos Sintéticos: A técnica de criar vídeos ou áudios em “baixa qualidade” (estilo câmera de segurança ou celular tremido) para simular flagrantes de candidatos. A imperfeição proposital é usada para contornar o ceticismo do eleitor, que tende a confiar mais em algo que parece “vazado” do que em produções oficiais. O uso de ruído e baixa resolução é uma tática de Cheapfake potencializada por IA, onde a estética do amadorismo é usada para gerar autenticidade artificial.
Alucinose Coletiva: Em vez de uma mentira única, a IA é usada para gerar dezenas de versões contraditórias de um mesmo fato real. O objetivo não é convencer de uma falsidade, mas sobrecarregar a capacidade cognitiva do eleitor, levando-o à exaustão e à apatia informacional.
Clonagem de Voz Afetiva: O uso de áudios onde a voz do candidato chama o eleitor pelo nome, comentando problemas específicos de sua rua ou bairro, criando uma falsa e perigosa sensação de proximidade.
Como Indentificar a Manipulação em 2026?
As dicas tradicionais de “olhar as mãos” ou “perceber erros de dublagem” em vídeos já não bastam, pois a IA superou essas falhas. A nova checagem é contextual:
- A Prova do Tempo: Se um vídeo ou áudio surge e não é replicado por nenhum veículo de imprensa profissional em 30 minutos, as chances de ser sintético são de quase 100%.
- Análise de Metadados e Rótulos: Plataformas como Instagram e TikTok são obrigadas a exibir rótulos automáticos. Se você suspeita de um vídeo, procure pelo ícone de “Informações de IA” que o sistema insere após processar o arquivo.
- A Verificação da Origem: Candidatos sérios centralizam seus conteúdos em canais oficiais verificados. Desconfie de “vazamentos” vindos de perfis criados recentemente.
A Resposta Institucional e o Papel do TSE
Para evitar o colapso do debate público, o Tribunal Superior Eleitoral (TSE) estabeleceu agora em 2026 as regras mais rígidas da história. A obrigatoriedade do rótulo de IA em qualquer peça de propaganda é o pilar central. Campanhas que utilizam deepfakes para simular a fala de opositores enfrentam a pena máxima: a cassação imediata do registro ou mandato. Além disso, as plataformas de tecnologia (Big Techs) agora operam sob o “dever de cuidado”, sendo responsabilizadas civilmente caso não removam conteúdos manipulados que ameacem a integridade do processo eleitoral.
Entre a IA e o Delírio
Em uma eleição sintética, a imagem e o som perderam o status de “prova irrefutável”. O desafio de 2026 exige um novo tipo de alfabetização digital. Se a tecnologia pode automatizar a mentira, o eleitor deve automatizar o seu ceticismo.
Como bem aponta a filósofa Márcia Tiburi em sua análise sobre o delírio do poder, quando uma sociedade é bombardeada por versões contraditórias e absurdas da realidade, o senso comum se quebra. Isso causa a exaustão cognitiva que abre portas para a loucura coletiva; as pessoas param de buscar a verdade e passam a buscar apenas o conforto da sua própria “bolha” delirante.
O maior risco de 2026 não é a IA substituir o candidato, mas a IA substituir a capacidade de julgamento independente do eleitor, mergulhando em um delírio psicopolítico customizado.


