Da redação
A sete meses das eleições de outubro de 2026, o eleitor brasileiro enfrenta o desafio de identificar deepfakes em meio ao uso intensivo de Inteligência Artificial (IA) no marketing político. O avanço dessas tecnologias faz com que o Tribunal Superior Eleitoral (TSE) intensifique a vigilância para proteger o voto e dificultar práticas de desinformação digital.
Segundo peritos digitais, detalhes como sincronia labial, movimento dos olhos e textura da pele são pistas fundamentais para reconhecer vídeos manipulados por IA. Erros comuns em deepfakes incluem borrões na região da boca, falhas no movimento labial e cadência mecânica das pálpebras, já que humanos piscam de forma irregular. Também podem ser notadas peles “perfeitas” demais e sombras estáticas no rosto.
Além disso, a respiração artificial pode denunciar um vídeo falso. É recomendado que o eleitor preste atenção a pausas desajeitadas para fôlego ou à ausência dessas pausas em frases longas. Esses rastros técnicos são sinais de montagem que, mesmo com o avanço tecnológico, ainda não passam despercebidos.
A legislação determina que qualquer conteúdo produzido ou manipulado por IA deve ter o rótulo “Conteúdo fabricado ou manipulado”. Além disso, edições com ferramentas de IA são proibidas nas 48 horas que precedem a votação, reforçando os mecanismos de proteção à integridade do processo eleitoral.
Caso encontre material suspeito, o eleitor deve evitar o compartilhamento e realizar denúncias por canais oficiais do TSE, como o aplicativo Pardal e o portal Fato ou Boato. O objetivo é combater a propagação de informações falsas e garantir a lisura da eleição.








