O crescimento acelerado da desinformação política, amplificado pela utilização de inteligência artificial (IA), levou o Tribunal Superior Eleitoral (TSE) a implementar uma série de novas regras para a propaganda digital nas eleições gerais de 2026. Essas medidas têm como objetivo coibir o uso descontrolado da tecnologia durante o processo eleitoral.
Ao todo, foram elaboradas 14 resoluções que ampliam significativamente as diretrizes já estabelecidas em 2024, quando a Corte proibiu a utilização de deepfakes, instituiu a obrigatoriedade de rotulagem de conteúdos gerados artificialmente e impediu a criação de “candidatos virtuais”. Neste ano, o tribunal avançou na regulamentação, introduzindo restrições de prazo, um regime mais severo de responsabilização para plataformas digitais e limitações explícitas ao uso de sistemas de IA.
A mais notável dessas medidas é a implementação de uma “lei seca da IA”, que proíbe a publicação, republicação ou impulsionamento de conteúdos alterados ou gerados por inteligência artificial que apresentem imagens, vozes ou manifestações de candidatos. Essa proibição é válida pelas 72 horas antes e pelas 24 horas após o pleito, independentemente de os conteúdos estarem identificados como tal.
Adicionalmente, sistemas de IA não poderão recomendar, ranquear ou priorizar candidatos, partidos ou campanhas, mesmo que o pedido venha de usuários. Essa restrição abrange desde mecanismos de busca até ferramentas como chatbots e assistentes virtuais.
O TSE também implementou medidas para tornar as plataformas digitais mais responsáveis. Agora, essas empresas devem remover conteúdos ilegais e suas réplicas sem a necessidade de uma nova ordem judicial, desde que tenham sido previamente notificadas. Um novo instrumento de trabalho é o plano de conformidade obrigatório, que exige das plataformas a definição de metas, indicadores e medidas concretas de prevenção ao longo do período eleitoral.
Apesar das iniciativas regulatórias, especialistas alertam que os desafios enfrentados são tão complexos quanto o problema em si. A Coalizão Direitos na Rede (CDR) analisa que o Brasil ingressa no primeiro ciclo eleitoral nacional sob normas específicas para inteligência artificial em um cenário de aumento exponencial da desinformação.
Dados do Observatório Lupa revelam que o aumento na disseminação de conteúdos fraudulentos criados por IA saltou 308% entre 2024 e 2025, passando de 39 para 159 casos identificados. Além do aumento no número, também houve uma mudança significativa no perfil dessas práticas: anteriormente, a tecnologia era mais utilizada em fraudes financeiras, mas atualmente concentra-se na desinformação política.
O levantamento indica que cerca de 45% dos conteúdos analisados apresentavam viés ideológico e mais de 75% desses materiais exploravam imagem ou voz de figuras públicas, atingindo personalidades como o presidente Luiz Inácio Lula da Silva, o ex-presidente Jair Bolsonaro e o ministro do Supremo Tribunal Federal, Alexandre de Moraes.
A CDR destaca que a preocupação principal não reside somente na elaboração das regras, mas na efetividade da sua aplicação em um ambiente digital que se caracteriza por um volume massivo de informações, alta velocidade na circulação e facilidade de replicação. As plataformas podem encontrar dificuldades em atender a exigência de remoção rápida de conteúdos, o que pode resultar em erros que levem à retirada indevida de materiais legítimos, como sátiras e reportagens jornalísticas.
A Coalizão afirma: “As eleições de 2026 representarão um teste institucional decisivo: mais do que atualizar normas, será vital demonstrar capacidade de fiscalização, agilidade na resposta e cooperação entre autoridades públicas, plataformas digitais e a sociedade civil para garantir a integridade do debate democrático. O primeiro turno das eleições está agendado para 4 de outubro e deverá consolidar o maior laboratório eleitoral já enfrentado pelo Brasil no que diz respeito ao impacto da inteligência artificial na democracia.”
Outro ponto de preocupação é a utilização de dados pessoais nas campanhas eleitorais. A organização ressalta que práticas como o envio massivo de mensagens por aplicativos continuam a ser um risco estrutural, especialmente quando fundamentadas em bases de dados obtidas sem consentimento. A efetividade das novas normas estará diretamente relacionada à articulação com a Lei Geral de Proteção de Dados (LGPD), principalmente no que tange à transparência e responsabilização no uso de informações pessoais.
Além disso, há o risco de que as estratégias de desinformação se desloquem para ambientes menos visíveis, como grupos fechados e redes paralelas, onde a capacidade de fiscalização é muito mais restrita.
Fonte:: convergenciadigital.com.br


