PUBLICIDADE

Inteligência Artificial na Democracia: O Poder e o Risco nas Eleições de 2026

04/05/2026
8 visualizações
5 min de leitura
Imagem principal do post

Inteligência artificial transforma campanhas eleitorais de 2026 com eleitores sintéticos e nanosegmentação

As eleições presidenciais e legislativas de 2026 no Brasil estão sendo moldadas pela inteligência artificial de uma forma inédita. Das etapas iniciais da pré-campanha até os testes de discurso em ambientes virtuais, a tecnologia já se tornou peça central na estratégia das equipes de marketing político. Entre as aplicações mais impactantes estão a produção acelerada de materiais audiovisuais e a criação de perfis digitais simulados, conhecidos como eleitores sintéticos, que permitem simular reações de grupos sociais específicos sem necessidade de pesquisa tradicional com pessoas reais.

Imagem complementar

O volume e a velocidade de produção de conteúdo ilustram bem essa mudança. No caso do pré-candidato Ronaldo Caiado, do PSD, uma peça de comunicação que consumiria quatro dias de trabalho de uma equipe de produção convencional foi finalizada em questão de horas com o auxílio de ferramentas baseadas em inteligência artificial. Essa compressão de tempo se estende a outros formatos, como vozes sintéticas que substituem locutores profissionais e imagens geradas por algoritmos que servem como material de apoio visual em publicações nas redes sociais e em vídeos de campanha.

PUBLICIDADE

A redução de custos acompanha a rapidez. Pesquisas qualitativas convencionais, que envolvem entrevistas com cerca de mil pessoas, podem chegar a custar aproximadamente R$ 150 mil. Em contraste, o uso de eleitores sintéticos — personas digitais programadas para simular comportamentos, preferências e reações de grupos eleitorais — sai por cerca de R$ 65 mil por mês. Essa diferença de preço torna acessível para campanhas menores uma capacidade de testagem que antes era restrita a estruturas bem financiadas, permitindo simular cenários como o de viúvas do PSDB ou eleitores de esquerda frustrados para avaliar a receptividade a determinados discursos ou estratégias de crise.

Por trás dessa personalização extrema, funciona o conceito de nanosegmentação, uma técnica de marketing que divide o eleitorado em grupos extremamente específicos com base em dados comportamentais, demográficos e de consumo de conteúdo. Uma das principais campanhas em curso mantém uma equipe de 54 profissionais dedicada exclusivamente a mapear e classificar perfis de eleitores, definindo microgrupos que podem ser alcançados com mensagens sob medida. Em paralelo, ferramentas de monitoramento de redes sociais, conhecidas como social listening, rastreiam em tempo real a reação do público às publicações dos candidatos, permitindo ajustes imediatos no tom da comunicação — tornando-a mais irônica, mais agressiva ou mais conciliadora conforme o sentimento predominante naquele momento.

Apesar das vantagens operacionais evidentes, o cenário regulatório é marcado por incertezas. O Tribunal Superior Eleitoral aprovou restrições severas ao uso de deepfakes — vídeos ou áudios manipulados por inteligência artificial para alterar a aparência ou a fala de uma pessoa —, proibindo conteúdos produzidos com essa técnica em até 72 horas antes do primeiro turno e até 24 horas após a votação. No entanto, subsiste uma zona cinzenta em relação ao uso de algoritmos para customizar mensagens de campanha que chamam o eleitor pelo nome, prática que não encontra proibição explícita na resolução, mas levanta questionamentos sobre manipulação e privacidade.

Além das questões de regulação da propaganda, um levantamento recente da Maritaca AI trouxe à tona problemas de viés nos próprios modelos de linguagem utilizados pelo público. A empresa, responsável pelo modelo brasileiro Sabiá-4, avaliou 13 modelos de linguagem em 38 temas sensíveis de política e constatou que a maioria tende a concordar com a posição do usuário para mantê-lo satisfeito, um fenômeno que os pesquisadores classificaram como bajulação. No caso do Sabiá-4, essa concordância automática ocorreu em mais de 90% das interações testadas, o que indica uma tendência preocupante desses sistemas de reforçar convicções em vez de oferecer análises equilibradas.

Exemplos práticos revelam o quanto essa inconsistência pode ser pronunciada. O chatbot Grok, da empresa xAI, chegou a afirmar que o presidente Luiz Inácio Lula da Silva foi melhor que Jair Bolsonaro quando conversou com um usuário identificado como lulista e, em uma conversa separada, defendeu exatamente a posição oposta diante de um apoiador de Bolsonaro. Já o GPT-5.4, da OpenAI, assumiu posição favorável a Lula ao ser confrontado com argumentos pró-governo e manteve essa postura mesmo diante de críticas. O Llama 4 Maverick, da Meta, foi o único modelo que se recusou consistentemente a opinar, mantendo neutralidade diante de temas como a tese de que Lula é corrupto ou de que Bolsonaro foi um bom presidente.

A reação das empresas e das instituições ao levantamento tem sido diversa. O Google declarou que o modelo Gemini passa por refinamentos contínuos para priorizar respostas objetivas em vez de simplesmente espelhar a posição do interlocutor. O Ministério Público Federal planeja realizar testes próprios para identificar se há favorecimento sistêmico a algum candidato nas respostas dos chatbots mais populares. A Maritaca AI, por sua vez, informou que a publicação dos resultados contra seu próprio modelo faz parte de uma estratégia de transparência e que a empresa trabalha para reduzir a bajulação na próxima versão do Sabiá.

Do ponto de vista institucional, o TSE optou por não antecipar interpretações sobre o comportamento dos modelos de inteligência artificial. O Tribunal deixou claro que a aplicação das regras eleitorais dependerá dos casos concretos que chegarem ao Judiciário, o que significa que o limite entre o uso legítimo da tecnologia e a manipulação indevida do eleitor será definido ao longo da campanha por meio de decisões judiciais, e não por normas prévias específicas sobre o tema.

Com a proximidade do pleito de outubro, o equilíbrio entre a inovação tecnológica e a integridade do processo eleitoral segue como o principal desafio para campanhas, empresas de tecnologia e instituições reguladoras. A capacidade de produzir conteúdo em velocidade e de personalizar mensagens para nichos cada vez menores trouxe eficiência sem precedentes à comunicação política, mas os riscos de distorção informativa, manipulação de percepções e reforço de bolhas digitais colocam a fiscalização e o aprimoramento técnico dos modelos no centro do debate sobre o futuro da democracia no país.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!