O primeiro turno das eleições 2026 será em outubro e esse ano as campanhas acontecerão em tempos de inteligência artificial (IA), que promete ser uma chave crucial no jogo de xadrez eleitoral. Nesta terça-feira (27/1), presidente do Tribunal Superior Eleitoral (TSE) e ministra do Supremo Tribunal (STF), Cármen Lúcia, disse durante Seminário da Justiça Eleitoral sobre Segurança, Comunicação e Desinformação que é preciso ter um olhar minucioso com a IA nas eleições.
De acordo com a presidente do TSE, a “desinformação é um dado que todo o mundo olha com cuidado, assim como a inteligência artificial”.
“Temos de garantir que as tecnologias sejam utilizadas de maneira transparente, para saber se foi manipulado e como retirar isso sem ferir a liberdade de expressão. Precisamos investir em medidas preventivas. A dúvida corrói as bases de um processo eleitoral”, avaliou a magistrada.
Ministra Carmén Lúcia, do STF
Reprodução/TV Justiça
Tribunal Superior Eleitoral (TSE) inicia teste público de segurança da Urna eleitoral para a eleição 2026. A Ministra Carmem Lúcia abriu o evento com uma fala breve.
Luis Nova/Especial Metrópoles @LuisGustavoNova
Ministra Carmen Lúcia, da Primeira Turma do STF
BRENO ESAKI/METRÓPOLES @BrenoEsakiFoto
Ministra Cármen Lúcia
STF
Segundo dados da própria Corte Eleitoral, 33.996.477 eleitores devem ir às urnas
Hugo Barreto/Metrópoles
@hugobarretophoto
Segundo turno ocorreu em 51 municípios brasileiros
Hugo Barreto/Metrópoles
@hugobarretophoto
IA generativa para imagens e vídeos
- Os modelos analisam bilhões de imagens e vídeos associados a legendas para aprender estatisticamente a relação entre palavras e padrões visuais.
- A imagem não é buscada, mas construída. O software começa com uma tela de “ruído” (estática aleatória) e a refina gradualmente até formar uma figura nítida que atenda ao pedido.
- O sistema traduz o comando escrito pelo usuário em coordenadas matemáticas, que funcionam como instruções precisas para definir a composição espacial da imagem gerada.
- Para criar vídeos, a IA gera sequências de quadros tentando calcular logicamente como os pixels de um objeto devem se mover de um instante para o outro sem distorcer. O resultado final é uma criação inédita, calculada pixel a pixel com base em probabilidades, simulando características físicas como iluminação, reflexos e profundidade de campo.
O avanço da IA generativa para a criação de vídeos e fotos ultra realistas tomou a internet no ano de 2025. Na política não seria diferente. Uma prévia do que pode acontecer no pleito eleitoral de 2026 foi a “guerra virtual do IOF”.
O imbróglio entre o Congresso e o governo federal em relação ao Imposto sobre Operações Financeiras (IOF) motivou uma nova guerra de informações e acusações nas redes sociais. À época, tanto esquerda como direita usufruíram da IA para criar narrativas acerca da pauta.
Outra polêmica envolvendo o uso da ferramenta virou caso de Justiça. Em outubro de 2025, o juiz Carlos Eduardo Batista dos Santos, da 2ª Vara Cível de Brasília, condenou o Partido Liberal (PL) a indenizar o Partido dos Trabalhadores (PT) em R$ 20 mil por danos morais.
O PT processou o PL após o partido postar um vídeo de inteligência artificial (IA) em que associava petistas a usuários de drogas. A doutora em ciência política pela Universidade de São Paulo (USP), Hannah Maruci entende que a IA será muito mais preocupante nas eleições de 2026 do que foi em pleitos anteriores.
A cientista política avalia que houve uma grande evolução da IA, deixando vídeos e imagens cada vez mais fidedignos com a realidade. Um ponto importante para Hannah Maruci é que as pessoas tendem a acreditar em algo que fortalecem aquilo que elas já pensam.
“Se ampliou muito o acesso a essas ferramentas, então muita gente sabe usar. Teve um tempo aí também de aprendizado. É bastante preocupante, porque esse uso não vai ser restrito apenas às campanhas oficiais”, explica Hannah Maruci.
A especialista Hannah Maruci alerta para um efeito colateral perigoso do avanço da inteligência artificial: O uso da tecnologia como pretexto para desacreditar fatos comprovados. Maruci cita como exemplo o episódio envolvendo a perícia da tornozeleira eletrônica do ex-presidente Jair Bolsonaro (PL), em que um vídeo real, mostrando marcas de violação com ferro de solda, foi classificado por apoiadores do ex-presidente como uma fabricação digital.
Segundo a especialista, a estratégia vai além de criar mentiras, servindo para “desvalidar o outro lado, alegando ser inteligência artificial uma coisa que não é”. Para a cientista política, a simples consciência da existência de tecnologias capazes de criar deepfakes fidedignos gera uma “cortina de fumaça” que beneficia narrativas políticas, permitindo que provas reais sejam descartadas como montagens.
Regulamentação
Para as eleições municipais de 2024, o TSE regulamentou o uso de IA na propaganda de partidos, coligações, federações partidárias, candidatos e candidatas.
A resolução proíbe deepfakes, obrigação de aviso sobre o uso de IA na propaganda eleitoral, restrição do emprego de robôs para intermediar contato com o eleitor e responsabilidade das big techs que não retirarem do ar, imediatamente, conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.
O professor Flávio de Barros Vidal, do Departamento de Ciência da Computação da Universidade de Brasília (UnB), lembra que desde 2018 autoridades já discutiam o risco de deepfakes interferirem no processo eleitoral. Ele afirma que, embora os modelos de criação tenham avançado em ritmo acelerado, a detecção de conteúdos manipulados também evoluiu.
Para Vidal, do ponto de vista técnico, identificar vídeos falsos ainda é uma tarefa relativamente simples para quem dispõe das ferramentas adequadas. O maior problema, segundo ele, não está na tecnologia em si, mas na forma como ela circula entre grupos vulneráveis à desinformação.
O professor destaca que o principal risco não é a incapacidade de detectar o que é fake, mas sim o impacto social provocado pela circulação massiva de vídeos manipulados.
“Muitas pessoas não tem o conhecimento técnico para poder perceber que aquele vídeo é um vídeo falso e acabam acreditando. E aí nesse caso sim, nesse caso nós teremos uma situação onde a pessoa vai ser influenciada por aquele vídeo e não importa qual a ferramenta que se tem para detectar, a pessoa já está confiante naquilo”, diz o especialista.
Ao olhar para o uso da IA pelos partidos políticos, Vidal afirma que a discussão é ainda mais complexa. O professor reconhece que a IA poderia, em teoria, democratizar o acesso a estratégias antes restritas a campanhas milionárias, mas pondera que o jogo tende a favorecer quem já tem mais recursos.
“Não tem como banir essas ferramentas, não tem como. Agora, resta saber como nós vamos lidar com isso no futuro. E a resposta não é simples, é o remédio é amargo e vai ser doloroso a gente trabalhar nisso. (…) Eu acho que o assunto tem que ser bem democratizado, principalmente agora o que vem nas eleições e definir o que pode e o que não pode ser feito de maneira clara, objetiva, que atenda a um jogo limpo, a um jogo que seja”, pontua o professor.