PUBLICIDADE

PGE pede regras mais rígidas para uso de IA em propaganda eleitoral e alerta para riscos de deepfakes

08/02/2026
13 visualizações
7 min de leitura
Imagem principal do post

A discussão sobre inteligência artificial em campanhas eleitorais deixou de ser apenas uma questão técnica para se tornar um tema central da democracia contemporânea. Quando a Procuradoria‑Geral Eleitoral (PGE) critica a norma proposta pelo Tribunal Superior Eleitoral (TSE) e pede restrições mais severas, o sinal de alerta é claro: trata‑se de um problema que combina tecnologia, direito e integridade do processo democrático. O gancho desta discussão é político, mas as consequências atravessam setores inteiros, da segurança cibernética ao mercado de publicidade digital.

A relevância do debate decorre da velocidade com que modelos generativos se disseminaram e passaram a produzir conteúdo audiovisual de aparência plausível. A PGE apontou, em sua manifestação, que a regra proposta pelo TSE é insuficiente para coibir riscos concretos como deepfakes, desinformação e manipulação automática de conteúdo. A crítica não é meramente retórica: ela coloca em foco como normas vagas ou permissivas podem ser exploradas por atores com interesse eleitoral, impactando a percepção pública e criando desafios inéditos para a fiscalização.

Neste artigo examinamos em profundidade o teor da manifestação da PGE, as limitações das propostas regulatórias em debate no TSE, e as implicações práticas para plataformas digitais, campanhas políticas e sistemas de fiscalização eletrônica. Abordaremos também conceitos técnicos relevantes — como deepfakes, watermarking e rastreabilidade de dados — e traremos comparações com iniciativas regulatórias internacionais que podem servir de parâmetro para o Brasil.

PUBLICIDADE

Por fim, discutiremos cenários prováveis para as próximas eleições e quais medidas combinadas entre tecnologia, regulação e práticas de mercado podem mitigar riscos sem tolher inovações legítimas na comunicação política. O objetivo é oferecer um panorama claro e acionável para profissionais de tecnologia, comunicação e compliance que precisam antecipar impactos e preparar defesas eficazes.

A manifestação da Procuradoria‑Geral Eleitoral veio em resposta à proposta do Tribunal Superior Eleitoral que busca estabelecer regras para o uso de inteligência artificial em propaganda eleitoral. A PGE considerou a proposta insuficiente e defendeu a adoção de restrições mais rigorosas, especialmente no que se refere ao uso de técnicas capazes de fabricar ou manipular conteúdo de forma a enganar o eleitorado. No núcleo da crítica estão preocupações concretas: deepfakes que simulam imagens ou vozes, textos automatizados que amplificam narrativas falsas, e a manipulação algorítmica que prioriza conteúdo enganoso.

Além da rejeição à letra da norma proposta, a PGE destacou a necessidade de prever consequências jurídicas claras para quem produzir ou divulgar conteúdo eleitoral fabricado por inteligência artificial, assim como a responsabilidade das plataformas que hospedam e amplificam esse material. A preocupação com a responsabilização é dupla: por um lado, punir agentes que criam desinformação deliberada; por outro, regular a atuação de plataformas que, por configuração algorítmica, impulsionam material manipulado.

Historicamente, regulamentações eleitorais lidaram com ataques tradicionais — como propaganda enganosa impressa ou áudio manipulado de forma artesanal —, mas os avanços recentes em modelos generativos mudaram a escala e o custo da manipulação. Hoje, a criação de um vídeo convincente com áudio sintético pode ser feita com ferramentas acessíveis e sem infraestrutura sofisticada. Essa banalização tecnológica reduz barreiras de entrada para atores maliciosos e amplia o espaço no qual a desinformação pode prosperar.

No plano técnico, termos como deepfake e mídia sintética precisam ser explicados com precisão. Deepfakes são conteúdos audiovisuais gerados ou manipulados por algoritmos que substituem rostos, reproduzem vozes ou alteram falas. Ferramentas de geração de texto e imagem, por sua vez, produzem narrativas plausíveis em grande volume. O risco não vem apenas da falsificação em si, mas da velocidade e escala com que essas falsas representações podem se espalhar em redes sociais, muitas vezes antes que mecanismos de verificação consigam atuar.

Para enfrentar esses riscos, há técnicas disponíveis: marcas d’água digitais (watermarking), assinaturas criptográficas de origem, metadados de proveniência e sistemas de detecção baseados em machine learning. Entretanto, nenhuma dessas soluções é perfeita isoladamente. Watermarks podem ser removidos por técnicas de pós‑processamento; detectores baseados em padrões podem ser enganados por modelos adversariais; e a verificação de proveniência depende de adoção ampla e de padrões interoperáveis entre plataformas.

As implicações práticas para campanhas e plataformas são profundas. Campanhas que adotarem IA de forma responsável precisam implantar governança de dados, políticas internas para revisão humana de conteúdos gerados, e trilhas de auditoria que comprovem origem e edição. Já as plataformas enfrentam o desafio de equilibrar liberdade de expressão, velocidade de moderação e transparência algorítmica. Medidas puramente reativas, como remoção posterior de conteúdo, muitas vezes chegam tarde demais quando uma narrativa já teve ampla circulação.

Casos de uso reais ajudam a dimensionar o problema. Em eleições recentes ao redor do mundo, conteúdos manipulados viralizaram e influenciaram debates públicos, mesmo quando posteriormente desmentidos. No Brasil, a preocupação gira em torno da adoção de práticas automatizadas para segmentação microtargeting com conteúdo sintético, que pode explorar vieses locais, explorações de identidades sonoras e visuais, e alcançar comunidades específicas com mensagens altamente personalizadas e difíceis de rastrear.

A análise de especialistas convergentes em tecnologia e direito sugere que a solução passa por um arcabouço combinado: regulação clara que imponha padrões mínimos de transparência, incentivos à adoção de tecnologia de verificação e sanções proporcionais para abusos deliberados. Esse conjunto deve ser complementado por investimentos em alfabetização midiática, capacitação de autoridades eleitorais e parcerias entre setor público e privado para desenvolver ferramentas de detecção e resposta.

No cenário internacional, iniciativas como exigências de rotulagem de conteúdo sintético, debates sobre a responsabilidade das plataformas e propostas legislativas voltadas à transparência de algoritmos oferecem precedentes úteis. O desafio para o Brasil é adaptar esses modelos ao contexto local, considerando tanto a dinâmica de redes sociais quanto a estrutura jurídica do sistema eleitoral brasileiro. A interoperabilidade de padrões e a cooperação internacional também são cruciais, dado o caráter transnacional de plataformas digitais.

Entre as tendências a observar nos próximos meses estão a evolução rápida de modelos generativos — que tende a tornar mais convincente a mídia sintética — e a intensificação do debate regulatório. Tecnologias de verificação continuarão a amadurecer, mas também haverá contrapressões de agentes que desenvolvem técnicas para burlar detectores. Nesse ambiente, a fiscalização eletrônica precisa se modernizar, incorporando capacidades técnicas e estruturas legais que permitam resposta ágil e preventiva.

Para profissionais de tecnologia e comunicação, as recomendações práticas incluem: auditar cadeias de criação de conteúdo, manter documentação rigorosa de processos de edição e uso de IA, e investir em treinamento para reconhecimento de sinais de manipulação. Para plataformas, estratégias que combinam transparência de origem, limites ao uso de automações para microtargeting e ferramentas acessíveis para verificação por terceiros serão diferenciais críticos.

Do ponto de vista da governança, a proposta da PGE enfatiza que medidas técnicas por si só não bastam; é preciso um marco regulatório com sanções e mecanismos de responsabilização que mudem incentivos. Isso significa construir normas que desestimulem a produção deliberada de desinformação e exijam das plataformas e campanhas práticas de diligência ativa. A falta de clareza regulatória cria lacunas exploráveis que podem comprometer a lisura do processo eleitoral.

A tecnologia não é inerentemente antidemocrática, mas sem regras claras seu uso pode fragilizar mecanismos de confiança pública. Por isso, o diálogo entre juristas, tecnólogos, plataformas e sociedade civil é indispensável. O caminho mais seguro passa por combinar regulação técnica com políticas públicas de educação digital, instrumentos de transparência e capacidade de fiscalização atualizada.

Em resumo, a manifestação da PGE ao TSE destaca que a regulação do uso de IA em propaganda eleitoral deve ser robusta e operacionalizável. A solução exige medidas técnicas, normativas e institucionais que, juntas, possam reduzir o risco de deepfakes e de manipulação automatizada sem impedir usos legítimos da tecnologia na comunicação política.

No próximo capítulo do debate regulatório, espera‑se que o TSE e as instâncias envolvidas considerem a integração entre padrões técnicos e responsabilização jurídica, além de fomentar parcerias para adoção de ferramentas de detecção e verificação. Para o setor de tecnologia, a hora é de preparar processos e políticas que garantam responsabilidade e auditabilidade no uso de IA.

Para o público e os profissionais que atuam em comunicação e tecnologia, o convite é claro: antecipe riscos, estruture controles e participe do debate público. A defesa da integridade eleitoral passa por ações concretas em todos os níveis — desde a formulação de normas até a implementação de controles técnicos nas ferramentas e plataformas que moldam a opinião pública.

A complexidade do tema exige respostas multidisciplinares e um ajuste fino entre inovação e proteção cívica. Se o objetivo é preservar a confiança nas eleições, é necessário que a regulação não seja apenas declaratória, mas efetiva na criação de barreiras que tornem proibitivamente custoso o uso de IA para manipular o processo democrático.

PUBLICIDADE

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!