O avanço do desenvolvimento das ferramentas tecnológicas trouxe uma gama imensa de possibilidades em diversos campos profissionais. Na comunicação política não foi diferente. Neste período de campanha, saber usar a inteligência artificial nas eleições pode fazer a diferença para aqueles com poucos recursos.

Para a coordenadora de Orientação e Gestão Processual do Tribunal Regional Eleitoral de Santa Catarina (TRE-SC), Aline Godoy, a inteligência artificial “pode ser utilizada para favorecer candidatos que não têm como pagar uma boa empresa para fazer publicidade, o que antes só era ível aos candidatos que tinham mais dinheiro”, avalia.
Aline exemplifica três opções de comunicação eleitoral que podem ser viabilizadas por ferramentas de inteligência artificial nas eleições:
- Criação de roteiros de campanha;
- Melhorias nos textos publicitários;
- Direcionamento dos discursos para cada tipo de público.
Os contras 271s6d
Porém, como toda tecnologia, a inteligência artificial nas eleições pode ser usada para o bem ou para o mal. “O grande problema da inteligência artificial é questão da segmentação que se faz das pessoas e, principalmente, a disseminação de fake news”, ressalta a coordenadora.
Danos potencializados 2w5n1w
Aline ressalta que as fake news sempre existiram, principalmente em período eleitoral, mas que agora os danos estão potencializados.
“Antes, com as fake news tradicionais, digamos assim, a gente já viu todos os problemas que causam. E com a inteligência artificial, isso é potencializado, porque hoje se tem uma estimativa de que 20% dos usuários do X (antigo Twitter), por exemplo, são bots, com capacidade de replicação muito maior, exponencial”, alerta.
Ela vê este tipo de ferramenta com uma capacidade grande de desequilibrar o pleito.
“A gente ainda não tem dados, mas se entende que ela [IA] tem uma capacidade, um potencial, e é difícil que tanto a Justiça Eleitoral quanto os candidatos e as candidatas lidem com isso”
Deepfake na Argentina 2y6e1d
Aline cita um exemplo de caso ocorrido na eleição presidencial da Argentina, no ano ado, usando deepfake — tipo de inteligência artificial que permite usar o rosto de uma pessoa em fotos ou vídeos modificados.
“Fizeram um vídeo muito pesado do adversário do Milei usando drogas. E aí, enquanto era para ele estar se preocupando com a campanha, toda a equipe dele tinha que estar lá se preocupando em desmentir, entrar na Justiça para tentar tirar isso. E quando cai na internet…”, lamenta a coordenadora.

Aline também contou sobre um caso, ocorrido em outra eleição, desta vez no vizinho Paraguai, que aparenta ser um uso para o bem, mas que no Brasil é proibido porque, na essência, está enganando o eleitor.
‘Tradução’ no Paraguai 83i5s
Além da Argentina, houve também um caso no Paraguai. O país tem uma comunidade indígena muito grande e um dos candidatos utilizou uma ferramenta de inteligência artificial nas eleições para fazer propaganda em várias tribos, como se estivesse falando naquele dialeto.
“Por mais que fosse bom, para levar aquela fala ali para a comunidade, seria uma falsidade, porque aquele candidato não fala aquela língua. Então mesmo essa de fake do bem, digamos assim, não é permitida”, esclarece.
Esta deepfake “do bem” é um dos exemplos de prática proibida pela legislação brasileira na propaganda eleitoral, um dos três grandes grupos de classificação das IAs.
TSE dividiu uso de inteligência artificial nas eleições em grupos 5a13o
O primeiro grupo é a IA “Permitida sem rotulagem”, que engloba:
- Ajustes técnicos – Melhorias na qualidade de imagem ou de som;
- Elementos gráficos – Produção de identidade visual, vinhetas e logomarcas;
- Recursos de marketing – montagens de imagens em que candidatos e apoiadores parecem estar juntos em uma foto, usada na confecção de material impresso e digital de propaganda.
“Permitida sem rotulagem é aquela utilização normal, ajuste de imagem, vinheta, aquela mais básica mesmo, correção de imagem, melhora do brilho, aquelas coisas normais, que o pessoal já fazia”, explica Aline.
O segundo grupo é a “Permitida com rotulagem”, em que será obrigatório informar, de forma explícita, destacada e ível, que o conteúdo foi fabricado ou manipulado, além de detalhar a tecnologia utilizada.
É o caso de:
- Chatbots, avatares e conteúdo sintético – utilizados para intermediar a comunicação de campanha com eleitores. Conteúdo sintético é aquele que foi alterado total ou parcialmente ou produzido com ferramentas de criação e edição de áudio, vídeo ou imagens.
Neste caso, a rotulagem é feita conforme o veículo. “Se foi no jornal, tem um tipo de rótulo, se foi em vídeo, se foi em áudio, tem outra coisa”, explica Aline.
O terceiro grupo lista os tipos de usos de inteligência artificial proibidos.
- Deepfake – Uso de inteligência artificial para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia, ainda que autorizado, para prejudicar ou favorecer candidatura.
- Simulação de interlocução – Chatbots que simulem diálogo com a pessoa candidata ou qualquer outra pessoa real.
- Difusão de informações falsas – Proíbe a utilização de conteúdo fabricado ou manipulado para difundir fatos inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio da eleição ou à integridade do processo eleitoral. Esta prática pode causar a cassação do registro de candidatura ou mesmo do mandato.
Responsabilização de big techs, provedores e plataformas 1264i

A resolução TSE 23.610/2019, que estabelece as regras para a propaganda eleitoral, também estabelece formas de responsabilização de big techs – como o Google e o Twitter, por exemplo –, provedores de internet e plataformas digitais no caso de descumprimento das normas.
As grandes empresas de tecnologia são responsabilizadas se não retirarem imediatamente conteúdos com desinformação, discurso de ódio, ideologias nazista e fascista e conteúdos antidemocráticos, racistas e homofóbicos.
Provedores e plataformas podem ser responsabilizados juntamente com as big techs se não retirarem imediatamente determinados conteúdos e contas com discursos de ódio ou teor antidemocrático. Eles também têm uma série de obrigações para combater a disseminação de fake news.
E não é só isso. As big techs são obrigadas a adotar e divulgar medidas para impedir ou diminuir a circulação de informações falsas, ou descontextualizadas que ameacem a integridade do processo eleitoral.
A Justiça Eleitoral também poderá determinar que as empresas divulguem esclarecimentos sobre informações falsas ou gravemente descontextualizadas.
Por fim, o Tribunal Superior Eleitoral (TSE) criou um “repositório de decisões”. O local reúne decisões de desinformação íveis pelos juízes eleitorais. O objetivo é agilizar a remoção de conteúdo falso.
“Quando recebe uma denúncia, ele vai lá ver se tem uma decisão já semelhante a essa aqui. Se tiver uma decisão semelhante a essa, ele é obrigado a mandar retirar”, explica a coordenadora.
Recomendações para evitar disseminar a fake news 572p2w

A coordenadora de Orientação e Gestão Processual do TRE-SC diz lamentar a dimensão a que chegaram as disseminações de desinformação e faz algumas recomendações para evitar o compartilhamento de fake news e de outras informações que podem prejudicar o processo eleitoral.
“A minha dica é sempre checar. Sempre, toda vez que receber uma notícia que é muito, muito escandalosa, muito ruim, que tem uma gravidade muito grande, sempre cheque. Joga ali no seu portal de notícias”, recomenda Aline Godoy.
“E antes de rear, confira. E tudo o que for relativo à Justiça Eleitoral, confira no site do TSE, não confie nas informações readas nos grupos de WhatsApp. Sempre confira isso”, completa.
Liberdade comprometida 111l6a
Para Aline Godoy, o mau uso da inteligência artificial nas eleições para disseminação de desinformação compromete a escolha e a liberdade do eleitor.
“O grande perigo da inteligência artificial é a má utilização dela para disseminar desinformação, para enganar os eleitores, porque um eleitor tem a sua liberdade para votar comprometida. Um eleitor que recebe desinformação tem a sua liberdade comprometida. Ele não tem um voto livre”, finaliza.