A preparação para as eleições gerais de 2026 no Brasil ocorre em um contexto profundamente marcado pela rápida evolução das tecnologias digitais, especialmente pela expansão do uso da inteligência artificial na produção e disseminação de conteúdo. Esse cenário levou o Tribunal Superior Eleitoral a colocar o tema da IA e dos riscos da desinformação no centro do debate regulatório, entendendo que a integridade do processo eleitoral depende, cada vez mais, da capacidade institucional de lidar com novos formatos de manipulação informacional.
A tecnologia mudou o jogo das eleições
Desde meados de 2025, o TSE vem conduzindo uma série de iniciativas com o objetivo de antecipar riscos, mapear vulnerabilidades e atualizar normas eleitorais diante do avanço acelerado das tecnologias de geração de texto, imagem, áudio e vídeo. A preocupação não é apenas teórica. Ferramentas de IA generativa tornaram-se mais acessíveis, sofisticadas e difíceis de detectar, criando um ambiente no qual conteúdos falsos ou manipulados podem circular com aparência de autenticidade, alcançando milhões de eleitores em curto espaço de tempo.
A inteligência artificial, por si só, não é encarada como um problema. Pelo contrário, ela pode ser utilizada de forma legítima em campanhas, na organização de dados, na produção de materiais informativos e até no aprimoramento da comunicação política. O risco surge quando essas tecnologias são empregadas para enganar, manipular emoções, fabricar fatos inexistentes ou distorcer falas e imagens de pessoas reais, comprometendo o debate público e a liberdade de escolha do eleitor.
Deepfakes, desinformação e os novos riscos ao voto
Um dos pontos que mais despertaram atenção das autoridades eleitorais foi o avanço dos chamados deepfakes. Trata-se de conteúdos audiovisuais manipulados por IA capazes de reproduzir com alto grau de realismo a voz e a imagem de uma pessoa, fazendo-a parecer dizer ou fazer algo que nunca ocorreu. Em um ambiente eleitoral altamente polarizado, esse tipo de recurso pode ser utilizado para ataques políticos, disseminação de boatos e deslegitimação de candidaturas, com impactos potencialmente irreversíveis antes que a falsidade seja esclarecida.
Diante desse contexto, o TSE iniciou, ainda em 2025, um trabalho interno voltado à análise técnica e jurídica do uso de inteligência artificial nas eleições. Grupos de estudo foram formados para avaliar cenários possíveis, examinar experiências internacionais e identificar quais práticas representam riscos concretos à normalidade e à legitimidade do pleito. A ideia central foi construir respostas regulatórias preventivas, evitando que a Justiça Eleitoral seja obrigada a agir apenas de forma reativa, quando o dano informacional já está consolidado.
Esse esforço institucional se apoia, em grande medida, nas normas já aprovadas para eleições anteriores. Em 2024, o TSE deu um passo importante ao incluir, pela primeira vez, regras específicas sobre o uso de inteligência artificial na propaganda eleitoral. Essas normas estabeleceram princípios fundamentais que tendem a ser mantidos para 2026, como a exigência de transparência no uso de tecnologias automatizadas e a proibição de conteúdos sintéticos enganosos.
Entre os principais pilares dessas regras está a obrigação de identificar claramente conteúdos produzidos ou alterados com o uso de IA. A lógica é simples: o eleitor tem o direito de saber quando está diante de uma peça criada por meio de tecnologia artificial e não de um registro fiel da realidade. Essa identificação busca reduzir o potencial de engano e permitir uma leitura mais crítica das mensagens que circulam durante a campanha.
Outro ponto central é a vedação expressa ao uso de deepfakes para fins eleitorais. A Justiça Eleitoral considera que a manipulação de imagem ou voz com o objetivo de influenciar o eleitorado ou prejudicar adversários configura prática abusiva, incompatível com a lisura do processo democrático. Essa proibição se aplica tanto a campanhas oficiais quanto a conteúdos difundidos de forma coordenada por apoiadores ou terceiros, sempre que houver vínculo com interesses eleitorais.
As regras também impõem limites ao uso de robôs, perfis automatizados e chatbots. Campanhas não podem simular diálogos humanos de forma enganosa, nem criar a impressão de apoio popular artificial por meio de interações automatizadas não identificadas. Quando ferramentas automatizadas são utilizadas, deve ficar claro para o eleitor que se trata de uma interação mediada por tecnologia, e não por uma pessoa real.
Além disso, o TSE mantém restrições rígidas ao impulsionamento de conteúdo nas plataformas digitais. Apenas candidatos, partidos e federações podem contratar esse tipo de serviço, diretamente com as plataformas, de forma identificada e transparente. Eleitores comuns não podem impulsionar propaganda política, e o impulsionamento não pode ser usado para ataques, desinformação ou conteúdos negativos contra adversários.
Um aspecto cada vez mais relevante nesse debate é a responsabilização das plataformas digitais. O entendimento da Justiça Eleitoral é que as empresas que operam redes sociais e serviços de mensageria desempenham papel central na circulação de informações e, portanto, têm deveres específicos durante o período eleitoral. Essas plataformas devem colaborar com as autoridades, cumprir determinações judiciais, manter canais de comunicação ativos e adotar medidas para reduzir a propagação de conteúdos comprovadamente falsos ou ilegais.
Apesar dessas iniciativas, há um consenso entre especialistas de que o arcabouço jurídico ainda apresenta lacunas importantes. No plano legislativo, projetos que poderiam oferecer uma regulamentação mais ampla e detalhada sobre o uso da inteligência artificial não avançaram a tempo de produzir efeitos nas eleições de 2026. A ausência de uma lei geral sobre IA e a não aprovação de um novo Código Eleitoral limitam o alcance das mudanças normativas que podem ser implementadas pela Justiça Eleitoral.
Essa limitação é reforçada pelo princípio da anualidade eleitoral, que impede alterações significativas nas regras do jogo a menos de um ano do pleito. Na prática, isso significa que o TSE tende a trabalhar com ajustes pontuais e com a consolidação das normas já existentes, evitando inovações profundas que poderiam ser questionadas juridicamente.
Nesse cenário, a atuação do Judiciário ganha ainda mais importância. Sem uma legislação específica e detalhada, muitos casos envolvendo o uso irregular de IA deverão ser analisados individualmente, com base em princípios gerais do direito eleitoral, na jurisprudência em formação e nas resoluções do próprio TSE. Isso exige dos magistrados não apenas conhecimento jurídico, mas também compreensão técnica sobre como essas tecnologias funcionam e quais são seus impactos reais.
A desinformação, por sua vez, continua sendo apontada como o maior risco para as eleições de 2026. O problema não se resume à criação de conteúdos falsos, mas à sua disseminação em larga escala, muitas vezes impulsionada por algoritmos que priorizam engajamento e emoções fortes. Notícias falsas, teorias conspiratórias e narrativas manipuladas tendem a se espalhar mais rapidamente do que informações verificadas, criando um ambiente de ruído permanente.
O desafio de proteger a democracia em 2026
Um dos grandes desafios é que boa parte desse conteúdo não parte diretamente das campanhas oficiais, mas de apoiadores, influenciadores ou redes informais de perfis que atuam de maneira descentralizada. Isso dificulta a fiscalização, a identificação de responsáveis e a aplicação de sanções, exigindo estratégias de monitoramento mais sofisticadas e cooperação entre diferentes instituições.
Outro obstáculo relevante é a própria detecção do uso de inteligência artificial. À medida que as ferramentas evoluem, torna-se cada vez mais difícil diferenciar um conteúdo genuíno de um material manipulado. A prova técnica, nesses casos, pode ser complexa, custosa e demorada, o que representa um problema sério em um contexto eleitoral, no qual o tempo é um fator decisivo.
Por essa razão, o TSE tem apostado fortemente na cooperação interinstitucional. A articulação com outros órgãos públicos, entidades da sociedade civil, agências de checagem e plataformas digitais é vista como essencial para enfrentar o fenômeno da desinformação de forma mais eficiente. Iniciativas conjuntas de monitoramento, resposta rápida e educação midiática fazem parte dessa estratégia.
Programas integrados de enfrentamento à desinformação buscam não apenas reagir a conteúdos falsos, mas também prevenir sua disseminação, promovendo informação de qualidade e fortalecendo a confiança da população nas instituições democráticas. A lógica é que a regulação, sozinha, não é suficiente; é preciso combinar normas, tecnologia, cooperação e conscientização pública.
À medida que as eleições de 2026 se aproximam, o desafio central será encontrar o equilíbrio entre combater abusos e preservar a liberdade de expressão. Medidas excessivamente rígidas podem gerar acusações de censura ou interferência indevida no debate político, enquanto a ausência de controle adequado abre espaço para manipulações que corroem a confiança no processo eleitoral.
O debate sobre inteligência artificial e desinformação nas eleições brasileiras reflete uma preocupação global. Democracias em todo o mundo enfrentam dilemas semelhantes, tentando adaptar instituições tradicionais a um ambiente informacional profundamente transformado pela tecnologia. No caso brasileiro, a experiência acumulada em eleições anteriores, aliada à atuação preventiva do TSE, pode servir como base para enfrentar os desafios de 2026.

