10:32 PM
18 de novembro de 2025

IA generativa precisa ser banida das peças de comunicação pública – 18/11/2025 – Poder

IA generativa precisa ser banida das peças de comunicação pública – 18/11/2025 – Poder

PUBLICIDADE


Enquanto não houver salvaguardas robustas, o setor público e, por extensão, campanhas eleitorais financiadas com recursos públicos deveriam ser proibidos de veicular áudios e vídeos produzidos por inteligência artificial generativa. Hoje, esses conteúdos sintéticos confundem autoria, distorcem fatos e ampliam assimetrias de poder entre Estado, candidatos e cidadãos. Em períodos de eleições, esse desequilíbrio cria um grave risco sistêmico.

Por quê? Porque o Estado é fonte institucional de informação e parâmetro de autenticidade para o cidadão. Quando ele passa a adotar representantes artificiais ou clonar suas autoridades, a linha entre comunicação pública e ficção se dissolve —e o prejuízo reputacional recai sobre toda a administração. Isso ocorre mesmo quando a intenção é boa. Em 2024, o secretário de Estado do Arizona usou um vídeo de si mesmo gerado por IA para treinar e alertar equipes eleitorais sobre deepfakes. Embora claramente identificada como simulação, a iniciativa evidenciou o problema: a própria autoridade se tornou indistinguível de uma criação sintética. Se isso já causou estranhamento num ambiente de treinamento, imagine na comunicação de massa.

Existem outras duas ameaças ainda mais graves. A primeira é a manipulação emocional e estética. A IA generativa facilita a fabricação de autoridade e memória para influenciar o comportamento político. Vimos isso muitas vezes no ano passado: na Indonésia, com a viralização de um deepfake do ditador Suharto, morto havia décadas, pedindo votos; na Índia, com imagens falsas de atores de Bollywood declarando apoio eleitoral; nos EUA, com telefonemas automáticos usando a voz clonada do presidente Joe Biden para desestimular eleitores a irem às urnas; e no México, com vídeos fraudulentos com uma versão sintética da então candidata Claudia Sheinbaum promovendo “oportunidade financeira” em pleno ciclo eleitoral.

A segunda ameaça é a da competição desleal. Quantos não irão cair na tentação de usar o dinheiro do contribuinte para microsegmentar e inundar a internet com peças baratas de propaganda, impulsionando a máquina oficial (ou máquinas partidárias) e esmagando o dissenso? Quem controlará o volume, a frequência e o tom dessas mensagens artificiais? É viável assegurar direito de resposta em tempo real quando se lidar com verdadeiras usinas de montagens de mentiras? Como garantir a igualdade de condições, a paridade de armas, o equilíbrio democrático?

Alguns poderão contra-argumentar destacando benefícios da IA generativa, como eficiência, acessibilidade e contenção de custos. São ganhos legítimos, sim. Mas eles não dependem de IA generativa. Podem ser alcançados com outras ferramentas de IA e processos humanos auditáveis —até que existam marcos regulatórios, fiscalização e uma cultura cívica capazes de impedir abusos em larga escala.

“Mas o setor público já usa atores e encenações. Qual é a diferença?”, outros poderão rebater. A diferença é essencial. Atores e encenações seguem códigos culturais e legais consolidados (créditos, sindicatos, direito de imagem). E há um limite físico: nenhum ator é, de fato, a personagem/autoridade que representa. Já a IA simula identidade, clona vozes e recria rostos da própria autoridade —ou inventa “representantes” com aparente estatuto oficial. Em telas pequenas, tudo acaba parecendo verdadeiro. Ou pior: a ambiguidade fortalece o “dividendo do mentiroso” e, num futuro próximo, até áudios e vídeos autênticos poderão ser descartados como falsos. Essa perspectiva, de completa desmoralização da comunicação pública, é aterrorizante. Correr tal risco é inaceitável, sobretudo se financiado com verba pública.

Esta é uma pauta oportuna e urgente para o TSE, que vem atuando com tanta firmeza e diligência na defesa da nossa democracia. À medida que agentes políticos e instituições se preparam para mais um ciclo eleitoral, deixo o convite para que o tribunal —em especial seus presidentes Cármen Lúcia (até agosto) e Kassio Nunes (dali em diante)— avalie: 1) banir conteúdos audiovisuais gerados por IA generativa com recursos públicos, inclusive fundos partidários e eleitorais; 2) admitir apenas funções assistivas, não-gerativas (compressão, legendas, audiodescrição sem sintetizar pessoas reais, conversões de formato); 3) exigir declaração de autenticidade, registros e guarda dos arquivos-fonte de toda peça oficial em áudio ou vídeo; 4) vetar o uso de IA generativa na criação e gestão de contas automatizadas (bots) para a disseminação de conteúdos; e 5) definir sanções e responsabilização solidária de fornecedores e gestores em caso de descumprimento e criar um canal ágil de denúncias com perícia forense especializada em IA.

Não se trata de tecnofobia. Empresas privadas, organizações e cidadãos têm que continuar livres para experimentar e inovar com as ferramentas generativas. Eu mesmo ajudei a fundar um movimento (o Instituto Inteligência Artificial de Verdade) para promover o letramento sobre esta que é a tecnologia mais importante desde a eletricidade e para mostrar às pessoas maneiras positivas de usar a IA para transformar seus trabalhos e suas vidas.

A proposta aqui é clara, técnica e republicana. O Estado precisa blindar a confiança que sustenta sua voz pública. A integridade do processo eleitoral tem que ser preservada. A democracia brasileira não pode servir de laboratório para comunicação sintética financiada pelo contribuinte.



Fonte.:Folha de S.Paulo

Leia mais

Rolar para cima