A eleição de 2026 não terá a inteligência artificial como detalhe tecnológico de campanha, mas como novo instrumento de manipulação política em escala. O caso recente de um vídeo produzido com IA que simula um suposto pastor agredindo mulheres com camisas do PT, citado na reportagem original, mostrou que o problema já não está na possibilidade de fraude, mas na sua operacionalização concreta dentro do debate público. O conteúdo combinou desinformação com violência política de gênero, exatamente dois elementos que a nova regulamentação eleitoral passou a mirar de forma direta.
O episódio importa menos como exceção e mais como sintoma. Ele mostra que a IA não entrou no processo eleitoral apenas para baratear peças de campanha ou automatizar comunicação, mas para ampliar a capacidade de fabricar cenas, vozes, contextos e agressões com aparência de verdade. Quando um conteúdo manipulado consegue imitar a realidade com nível suficiente para circular como fato antes de ser contestado, o dano político não depende mais de prova definitiva, mas apenas de tempo de exposição.
O TSE endureceu a regra porque o problema deixou de ser marginal
Em março, o Tribunal Superior Eleitoral aprovou uma série de restrições ao uso de inteligência artificial nas campanhas, com foco em transparência e combate à desinformação. Entre as exigências, está a obrigação de identificar de forma clara quando um conteúdo foi produzido com uso de IA, sob pena de remoção. A norma também proíbe deepfakes — materiais que falsificam voz, imagem ou identidade — ainda que sejam usados para beneficiar candidaturas, o que revela que o TSE já reconhece a manipulação sintética como ameaça estrutural ao processo eleitoral, e não apenas como abuso periférico.
A resolução foi além da rotulagem. Ela vedou o uso de IA nas 72 horas anteriores ao pleito e nas 24 horas posteriores, inclusive para republicação, proibiu sistemas que recomendem candidaturas a eleitores e incluiu salvaguardas específicas contra violência política de gênero, como deepfakes com nudez ou materiais que incentivem ataques contra mulheres. O desenho da regra mostra que a Justiça Eleitoral já entende que a manipulação sintética não opera só pela mentira factual, mas também pela humilhação, pela indução emocional e pela destruição da reputação em velocidade industrial.
O centro do problema não é a norma, mas o atraso estrutural da resposta
A dificuldade aparece quando a regra precisa encontrar o ambiente onde a fraude realmente circula. Segundo Fabrício Bruno, presidente da Comissão de Direito Eleitoral da OAB-RN, a Justiça Eleitoral é célere quando acionada, mas muitas vezes não toma conhecimento imediato do conteúdo. Essa observação revela o núcleo do impasse institucional: o sistema foi desenhado para reagir a infrações identificáveis, enquanto a desinformação digital funciona por replicação acelerada, distribuição descentralizada e desaparecimento rápido de rastros.
Em outras palavras, a Justiça pode até remover, multar, cassar registro ou diploma e até abrir caminho para responsabilização criminal, mas quase sempre depois de a peça já ter cumprido sua função política. No ecossistema digital, a eficácia de uma fraude não depende de permanência, mas de impacto imediato. Se milhares de pessoas recebem, acreditam e repassam um conteúdo antes de qualquer contestação institucional, a reparação jurídica entra quando o efeito eleitoral já começou a se consolidar.
Esse descompasso entre circulação e punição muda a natureza da disputa. A infração deixa de ser apenas uma violação normativa e passa a ser estratégia de campanha de alto rendimento: baixo custo de produção, alta velocidade de distribuição e correção institucional tardia. É por isso que a presença da IA nas eleições não deve ser lida como mera inovação de linguagem digital, mas como multiplicador de assimetrias dentro de um sistema de controle que continua operando em modo reativo.
A fraude de 2026 não nasce do nada: ela é a versão turbinada de um método antigo
O histórico recente ajuda a localizar a mudança de patamar. Em 2018, o debate público foi contaminado pela circulação massiva de notícias falsas, como a narrativa do chamado “kit gay”, que voltou a aparecer também em 2022. A diferença agora, segundo o material, está no nível de sofisticação: a IA tornou possível produzir vídeos hiper-realistas, com vozes e imagens simuladas, elevando a manipulação do texto falso para a encenação audiovisual convincente.
Essa passagem é decisiva porque altera o regime de credibilidade da fraude. A fake news tradicional dependia de convencimento narrativo; a fraude sintética depende de simulação sensorial. O eleitor já não recebe apenas uma versão mentirosa dos fatos, mas um artefato visual ou sonoro desenhado para reduzir sua capacidade de dúvida. Quanto mais realista o material, menor o intervalo entre exposição e adesão emocional, e menor também a chance de verificação crítica antes do compartilhamento.
O problema se agrava porque a legislação não alcança apenas o conteúdo totalmente inventado. Como o próprio Fabrício Bruno aponta, informações verdadeiras manipuladas ou retiradas de contexto também podem ser punidas. Isso significa que a IA não precisa fabricar um mundo falso inteiro para interferir na eleição; basta reorganizar elementos reais, alterar enquadramento, simular contexto ou adulterar intenção. A fraude contemporânea funciona menos como invenção absoluta e mais como edição maliciosa da realidade.
O WhatsApp continua sendo a infraestrutura oculta da contaminação
A pesquisa citada do InternetLab ajuda a explicar por que o risco cresce justamente onde a fiscalização enxerga menos. O levantamento aponta que grande parte dos entrevistados acredita já ter recebido conteúdos políticos ou eleitorais produzidos com IA sem saber, enquanto outra parcela admite não conseguir identificar quando imagens, vídeos ou áudios são sintéticos. O dado mais revelador é que 99,1% dos respondentes afirmam usar WhatsApp, ambiente que favorece circulação ampla, baixa transparência, pouco rastreio e enorme dificuldade de checagem.
Esse ponto é central porque desmonta qualquer ilusão de que o combate à desinformação será resolvido apenas com moderação pública em plataformas abertas. A arena decisiva permanece em aplicativos de mensagem, onde o conteúdo circula em grupos privados, chega com selo de confiança interpessoal e escapa do escrutínio amplo. A mentira ali não aparece como propaganda; aparece como aviso, denúncia, revelação ou pedido de repasse. E quando assume essa forma, a tecnologia amplia não apenas o alcance, mas o poder de infiltração política.
A eleição ficou mais digital, mas o problema maior é que ficou mais manipulável
A reportagem original acerta ao afirmar que as campanhas caminham para um ambiente cada vez mais digital e que a IA tende a ter papel central em 2026. Mas o ponto mais duro é outro: quanto mais digital a eleição se torna, mais dependente ela fica de intermediários tecnológicos, sistemas de recomendação, ecossistemas fechados de mensagem e conteúdos sintéticos baratos de produzir. Isso desloca o centro da disputa do palanque para a arquitetura da circulação.
Nesse modelo, vencer parte da batalha não significa convencer melhor, mas contaminar mais rápido. A IA entra como acelerador dessa lógica porque comprime tempo, reduz custo e multiplica formatos. O resultado é uma eleição em que o aparato normativo tenta preservar equilíbrio formal enquanto a disputa real se move em um terreno onde prova, checagem e contraditório chegam em desvantagem.
É por isso que o risco para 2026 não está apenas em vídeos falsos isolados, mas na consolidação de um ambiente onde manipulação, violência simbólica e indução algorítmica podem se tornar parte ordinária da campanha. Se a eleição for atravessada por esse padrão sem capacidade proporcional de contenção, a democracia não estará diante de um problema tecnológico. Estará diante de uma mutação operacional da fraude política.

































![[VÍDEO] Motociclista morre após ser atingido por viatura na BR-304 em Mossoró](https://www.jolrn.com.br/wp-content/uploads/2026/04/IMG_6085-360x180.png)






































![[VÍDEO] Motociclista morre após ser atingido por viatura na BR-304 em Mossoró](https://www.jolrn.com.br/wp-content/uploads/2026/04/IMG_6085-120x86.png)


![[VÍDEO] Motociclista morre após ser atingido por viatura na BR-304 em Mossoró](https://www.jolrn.com.br/wp-content/uploads/2026/04/IMG_6085-350x250.png)
Comentários