O Tribunal Superior Eleitoral (TSE) deu um passo decisivo na tentativa de blindar o processo democrático brasileiro diante do avanço vertiginoso das tecnologias de inteligência artificial ao aprovar, por unanimidade, novas regras que restringem de forma significativa o uso de ferramentas automatizadas de geração de conteúdo nas eleições de 2026. O núcleo mais sensível da resolução está na vedação à publicação, republicação ou impulsionamento de novos conteúdos produzidos ou alterados por inteligência artificial nas 72 horas que antecedem a votação e nas 24 horas subsequentes ao encerramento do pleito, intervalo em que o eleitorado é mais vulnerável a boatos de última hora e a ataques coordenados. Trata-se de uma espécie de “cordão digital” em torno do momento da escolha nas urnas, concebido para reduzir o impacto de campanhas de desinformação de alta velocidade, especialmente aquelas construídas a partir de deepfakes de voz e imagem que simulam, com inquietante verossimilhança, falas e comportamentos de candidatos e figuras públicas.
A nova arquitetura normativa não se limita a impor uma janela temporal de silêncio tecnológico: ela inaugura um regime de transparência compulsória para todo conteúdo eleitoral manipulado por inteligência artificial, seja em vídeos, áudios, imagens estáticas ou peças híbridas. A resolução exige que qualquer uso de IA que sirva para criar, substituir, omitir, mesclar, alterar velocidade ou sobrepor imagens e sons seja expressamente informado ao público de maneira clara, destacada e acessível, com indicação da tecnologia empregada, de modo a permitir que o eleitor perceba que não está diante de um registro espontâneo da realidade, mas de um artefato sintético. A omissão dessa informação transforma a peça em conteúdo irregular, passível de remoção imediata pelas plataformas ou por determinação judicial, aproximando a lógica eleitoral das práticas já adotadas em outros campos regulatórios que lidam com riscos digitais sistêmicos.
A Corte Eleitoral buscou também delimitar o espaço de atuação dos grandes provedores de tecnologia e, em particular, das empresas que operam sistemas de inteligência artificial generativa, impondo-lhes deveres de neutralidade política até então inexistentes em tal grau de explicitude. As resoluções aprovadas proíbem que esses sistemas ranqueiem, recomendem, sugiram ou priorizem candidatos, campanhas, partidos, federações ou coligações, ainda que haja um pedido expresso do usuário para receber esse tipo de indicação, sob o argumento de que se faz necessário impedir a interferência algorítmica na formação da vontade do eleitor. Em termos práticos, isso significa que assistentes virtuais, chatbots e demais interfaces conversacionais não poderão responder a perguntas do tipo “em quem devo votar?” com listas de nomes ou preferências, sob pena de verem sua atuação enquadrada como favorecimento político-eleitoral velado.
Ao mesmo tempo, o TSE ampliou a responsabilidade das plataformas digitais que hospedam ou distribuem conteúdo eleitoral, deslocando parte do ônus de fiscalização para as próprias empresas. Redes sociais e provedores de aplicação passam a ser solidariamente responsáveis quando, notificados ou cientes, não promoverem a remoção célere de conteúdos sintéticos que violem as regras eleitorais, sobretudo deepfakes que alterem voz ou imagem de candidatos ou pessoas públicas em contexto que possa comprometer o equilíbrio do pleito. Essa responsabilização solidária vem acompanhada da exigência de elaboração de “planos de conformidade”, documentos nos quais as plataformas deverão detalhar, em perspectiva preventiva, quais mecanismos de monitoramento, mitigação e resposta adotarão antes, durante e depois da campanha para proteger a integridade do processo democrático. Especialistas em regulação digital apontam que esse modelo aproxima o direito eleitoral brasileiro de paradigmas de compliance típicos de setores regulados, como o financeiro e o ambiental, agora transplantados para o ecossistema informacional.
O desenho normativo contempla ainda preocupações específicas com a proteção de grupos vulneráveis, em particular as mulheres que se candidatam a cargos eletivos, frequentemente alvo de campanhas coordenadas de ódio e violência simbólica nas redes. O TSE vedou expressamente o uso de inteligência artificial para produzir montagens envolvendo nudez, pornografia ou cenas de conotação sexual com a imagem de candidatas, bem como para criar conteúdos que representem atos de violência política de gênero, reforçando uma linha já adotada em eleições recentes, mas agora reforçada pelo elemento tecnológico. Além disso, o tribunal reiterou que perfis falsos e contas dedicadas reiteradamente à propagação de desinformação ou ataques contra a confiabilidade do sistema eleitoral poderão ser banidos das plataformas, o que cria um ambiente menos tolerante com campanhas de fabricação massiva de mentiras.agenciabrasil.
A votação das resoluções foi relatada pelo ministro Nunes Marques, vice-presidente do TSE e futuro presidente da Corte, que sublinhou que as medidas não pretendem asfixiar o debate público nem tolher a liberdade de expressão, mas sim permitir o florescimento de uma disputa política robusta sem que a assimetria tecnológica converta o ambiente digital em terreno fértil para fraudes perceptivas. O relator destacou que a janela de 72 horas para o bloqueio de novos conteúdos sintéticos foi concebida para excluir “surpresas indesejadas” nas vésperas da votação, evitando que ataques impossíveis de verificar em tempo hábil contaminem a decisão do eleitorado às portas das urnas. As minutas que embasaram as resoluções foram objeto de audiências públicas com especialistas, representantes de partidos e plataformas e receberam mais de 1,6 mil contribuições, sendo centenas delas dedicadas especificamente ao uso de inteligência artificial no campo político-eleitoral, o que revela o grau de inquietação da sociedade com o tema.
Apesar da robustez formal do novo arcabouço, a chave de sua efetividade residirá, como reconhecem pesquisadores, na capacidade de implementar mecanismos de monitoramento em larga escala, dotados de sensibilidade técnica para distinguir entre conteúdos genuinamente jornalísticos, sátiras, análises comparativas legítimas e peças de desinformação fabricadas com auxílio de IA. O desafio operacional não é trivial: identificar, em tempo quase real, deepfakes sofisticados, rastrear sua disseminação em redes descentralizadas e acionar procedimentos de remoção sem incorrer em censura abusiva exigirá ferramentas técnicas avançadas e equipes especializadas tanto nas plataformas quanto na Justiça Eleitoral. Pesquisadores da área alertam que, sem uma rede de monitoramento qualificada e ágil, dotada de cooperação institucional entre o TSE, o Centro Integrado de Combate à Desinformação e Defesa da Democracia e as próprias empresas de tecnologia, o texto regulatório pode se revelar insuficiente diante da velocidade com que narrativas manipuladas se espalham.
Há, ainda, zonas de penumbra interpretativa que tendem a suscitar controvérsias à medida que a campanha de 2026 se aproximar, especialmente no que diz respeito à distinção entre recomendação de voto, proibida, e mera análise comparativa de planos de governo ou perfis ideológicos, que permanece juridicamente legítima. A fronteira entre um sistema que, a pedido do usuário, apenas descreve quais candidatos se alinham a determinados valores ou agendas e outro que, na prática, sugere um nome específico como “melhor escolha” é tênue e desafiadora, o que poderá exigir futuras interpretações do próprio TSE ou da doutrina especializada. Também permanece em aberto o tratamento de conteúdos sintéticos antigos que voltem a ser compartilhados dentro da janela de 72 horas: como o texto é mais rigoroso com novidades fabricadas nesse período, debates jurídicos deverão emergir sobre a responsabilidade por republicações e sobre o critério de identificação do “ineditismo” do material.
Ao aprovar essas normas, o TSE sinaliza que o Brasil pretende ocupar posição de vanguarda na regulação do cruzamento entre tecnologia e democracia, ainda que o equilíbrio entre proteção e liberdade continue a ser tema de intenso escrutínio público e acadêmico. Em um cenário global marcado pela proliferação de ferramentas de inteligência artificial capazes de replicar rostos e vozes com precisão perturbadora, a tentativa de impor freios institucionais às campanhas de manipulação política não é um luxo regulatório, mas um requisito mínimo para preservar a confiança coletiva no resultado das urnas. Caberá agora a candidatos, partidos, plataformas e eleitores internalizar as novas regras, ajustando suas estratégias de comunicação e consumo de informação à luz dessa moldura normativa, sob pena de verem suas práticas questionadas e sancionadas em pleno curso da disputa eleitoral.
Em tempos em que a linha que separa o verdadeiro do fabricado se torna cada vez mais difusa, acompanhar com atenção as transformações regulatórias que impactam diretamente a qualidade da nossa vida democrática é um exercício de cidadania informado, que a HostingPress Agência de Notícias se compromete a oferecer com rigor analítico e independência editorial. Convidamos o leitor a continuar acompanhando nossas coberturas especiais, análises e reportagens aprofundadas sobre o processo eleitoral de 2026, explorando em detalhe como a tecnologia, o direito e a política se entrelaçam na construção do futuro do país.
Marcelo Henrique de Carvalho, editor-chefe
HostingPRESS – Agência de Notícias de São Paulo. Conteúdo distribuído por nossa Central de Jornalismo. Reprodução autorizada mediante crédito da fonte.

