IA e deepfake nas eleições: regras
Do Editorial AVM, a enciclopédia livre do marketing político brasileiro.
IA e deepfake nas eleições é o conjunto de regras introduzidas pelo Tribunal Superior Eleitoral em 2024 para regular o uso de inteligência artificial em propaganda eleitoral, em resposta ao avanço acelerado dessas tecnologias. A Resolução TSE nº 23.732, de 27 de fevereiro de 2024, alterou a Resolução nº 23.610, de 2019, incluindo dispositivos específicos sobre conteúdo sintético gerado por IA, deepfake, robôs (chatbots) e responsabilização de plataformas digitais. As regras valeram pela primeira vez nas eleições municipais de 2024, e as eleições gerais de 2026 são o primeiro teste em escala nacional desse arcabouço.
O contexto da regulação é o avanço tecnológico de ferramentas de IA generativa, capazes de produzir conteúdo realista de áudio, vídeo e imagem em ritmo e escala que poucos anos atrás eram inimagináveis. Na avaliação do TSE, registrada em material institucional, esse avanço criou risco específico para o equilíbrio das campanhas e para a integridade do processo eleitoral. As regras de 2024 buscam mitigar esse risco com mecanismos de transparência, proibições específicas e responsabilização ampliada de plataformas. Para o profissional sério de marketing político, o conhecimento dessas regras é parte do mínimo necessário para operar em 2026 e nos ciclos seguintes.
- A definição legal de inteligência artificial
- A obrigação de aviso sobre uso de IA
- A proibição absoluta de deepfake
- A restrição ao uso de robôs (chatbots)
- A responsabilização das plataformas
- As implicações práticas para a campanha
- Erros recorrentes
- Perguntas-guia
- A regulação como bússola em ambiente em transformação
A definição legal de inteligência artificial
A Resolução TSE nº 23.732, de 2024, traz definição operacional de inteligência artificial em seu artigo aplicável.
Definição. Conforme a resolução, inteligência artificial é "sistema computacional desenvolvido com base em lógica, em representação do conhecimento ou em aprendizagem de máquina, obtendo arquitetura que o habilita a utilizar dados de entrada provenientes de máquinas ou seres humanos para, com maior ou menor grau de autonomia, produzir conteúdos sintéticos, previsões, recomendações ou decisões que atendam a um conjunto de objetivos previamente definidos e sejam aptos a influenciar ambientes virtuais ou reais".
O alcance da definição. Cobre tanto IA generativa (que cria conteúdo) quanto IA preditiva (que analisa e classifica), aplicáveis ao contexto eleitoral. Inclui ferramentas conhecidas e ainda outras que possam surgir.
Conteúdo sintético. A resolução define conteúdo sintético como o material produzido total ou parcialmente por IA, texto, áudio, imagem, vídeo, ou combinação desses formatos.
Deepfake. A resolução trata especificamente do conteúdo sintético em formato de áudio, vídeo ou combinação dos dois, gerado ou manipulado digitalmente para criar, substituir ou alterar imagem ou voz de pessoa, ainda que com autorização da pessoa retratada.
A definição clara é parte importante da regulação, porque permite enquadrar tecnologias diferentes sob o mesmo arcabouço regulatório.
A obrigação de aviso sobre uso de IA
Uma das regras centrais é a transparência sobre uso de IA na propaganda eleitoral.
Aviso obrigatório. O artigo 9º-B da Resolução nº 23.610, conforme alterada, estabelece que a utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de IA, para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons, impõe ao responsável o dever de informar, de modo explícito, destacado e acessível, que o conteúdo foi fabricado ou manipulado, e qual a tecnologia utilizada.
Como fazer o aviso. O aviso precisa ser claro, visível, identificável pelo eleitor médio. Não pode estar escondido em letras minúsculas, em rodapé invisível, em condição que dificulte a percepção. A finalidade é proteger o público de ser enganado.
Aplicação ampla. A regra vale para todas as modalidades, vídeo, áudio, imagem, texto. Vale tanto para conteúdo orgânico quanto para conteúdo impulsionado.
Conteúdo de uso editorial. Imagem ilustrativa gerada por IA, gráfico animado produzido com auxílio de IA, ou peça em que a IA tem papel auxiliar, todos precisam de aviso quando o componente sintético é relevante para o entendimento.
Voz original do candidato preservada. Material da AVM aplicável e o entendimento institucional preservam a possibilidade de uso ético de IA, por exemplo, para produção mais ágil de peças, para tradução, para edição. O que a regra exige é a transparência, não a proibição absoluta de uso.
A obrigação de aviso é mecanismo central para que o eleitor possa avaliar criticamente o conteúdo recebido. Sem essa transparência, a desinformação ganha terreno fértil.
A proibição absoluta de deepfake
Diferente do uso transparente de IA, a deepfake é vedada de forma absoluta.
Vedação clara. O artigo 9º-B, conforme texto da resolução, proíbe o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deepfake).
Cobertura ampla. A vedação alcança pessoa viva (candidato, adversário, terceiro), pessoa falecida (uso da imagem ou voz de figura histórica) e pessoa fictícia. A autorização da pessoa retratada não afasta a vedação, mesmo o candidato não pode autorizar deepfake de si mesmo.
Sanção prevista. Material institucional do TSE explicita que o uso de deepfake pode levar à cassação do registro ou do mandato, com apuração das responsabilidades conforme disposto no Código Eleitoral.
Tecnologia em evolução. A vedação abrange tanto deepfakes facilmente identificáveis quanto as mais sofisticadas. Argumentar dificuldade de identificação pelo eleitor médio não afasta a vedação, ao contrário, reforça a justificativa da regra.
Peças que circulam sem autoria identificável. Quando deepfake aparece sem autoria clara, há mecanismos para apuração de responsabilidade, pelo provedor que veicula, pelo beneficiário aparente do conteúdo, pelo financiamento associado.
A proibição absoluta de deepfake é uma das marcas mais visíveis da regulação de 2024. Em alguns ciclos eleitorais internacionais, deepfakes circularam com efeito significativo. A regra brasileira tenta antecipar esse risco com vedação categórica.
A restrição ao uso de robôs (chatbots)
A resolução regula o uso de robôs em comunicação eleitoral.
Permissão limitada. O uso de robôs ou agentes automatizados (chatbots) para intermediar contato com o eleitor é permitido em hipóteses específicas, dentro de limites.
Vedação à simulação de diálogo. É vedado o uso de robôs para simular diálogo com candidato ou com qualquer outra pessoa. O eleitor que conversa com chatbot não pode ser levado a acreditar que está conversando com pessoa real.
Identificação clara. Quando o robô é usado, o eleitor precisa saber que está interagindo com sistema automatizado, e não com pessoa física.
Regulação de mensagem em massa. Disparo automatizado de mensagens, especialmente em períodos sensíveis, está sujeito a regras adicionais, com riscos de configuração de prática vedada.
A restrição busca proteger o eleitor da manipulação por agentes automatizados que se passem por pessoas. É campo em evolução, com tecnologia avançando rapidamente.
A responsabilização das plataformas
A Resolução nº 23.732, de 2024, ampliou a responsabilização de provedores de aplicação de internet.
Responsabilidade solidária. O artigo 9º-E estabelece que provedores e plataformas digitais são solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas durante o período eleitoral, em casos específicos.
Hipóteses cobertas. Conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, conteúdo antidemocrático, racista, homofóbico, entre outros explicitados na regulação. Plataforma que não age tem responsabilidade ampliada.
Obrigação de medidas preventivas. Provedores devem adotar e divulgar medidas para impedir ou diminuir a circulação de desinformação sobre as eleições.
Cessação imediata. Ao detectar ou ser informado da circulação de conteúdo falso, o provedor deve cessar o impulsionamento, a monetização e o acesso ao material, além de realizar apuração interna para impedir nova circulação.
Possibilidade de contranarrativa. A Justiça Eleitoral pode determinar que o provedor veicule, sem custos e de forma impulsionada, conteúdo desmentindo a desinformação divulgada.
Repositório de decisões. As decisões do TSE que determinarem ou indeferirem a remoção de conteúdos são incluídas em repositório disponível para consulta pública, salvo casos de sigilo.
A responsabilização ampliada das plataformas é uma das mudanças mais profundas do arcabouço de 2024. Coloca pressão sobre as empresas para que ajam de forma rápida e consistente, em vez de apenas processarem reclamações em ritmo demorado.
As implicações práticas para a campanha
Para a operação de campanha, as regras geram orientações concretas.
Decidir o que pode usar IA. Equipe profissional separa, no plano de produção, peças que terão componente de IA (com aviso) e peças sem componente de IA. Decisão consciente, não improvisada.
Padronizar o aviso. Modelo padrão de aviso, visível, em formato e local definidos, aplicado de forma consistente em toda a produção.
Documentar a tecnologia usada. Registro interno de qual ferramenta foi usada em cada peça, para sustentar resposta a eventual questionamento.
Vetar deepfake em qualquer hipótese. Treinamento da equipe para reconhecer o que é deepfake e recusar produção, mesmo quando aparentemente vantajosa no curto prazo.
Cuidado com fornecedores externos. Empresas terceirizadas que produzem conteúdo precisam ser orientadas sobre as regras. Contratos podem incluir cláusulas que vinculem o fornecedor às regras eleitorais.
Monitoramento de uso de deepfake contra a campanha. Adversários podem produzir deepfake contra a candidatura. A equipe precisa estar pronta para identificar, denunciar à plataforma, levar à Justiça Eleitoral.
Treinamento da base ativa. Apoiadores entusiasmados podem produzir conteúdo de IA sem perceber que viola regras. Orientação clara à comunidade evita problemas indiretos.
Articulação com plataformas. Em casos críticos, a campanha pode acionar canais oficiais de denúncia das plataformas, em paralelo ao acionamento da Justiça Eleitoral.
A operação dentro das regras exige preparo prévio. Improvisar quando a campanha está em ritmo intenso é receita para erro.
Erros recorrentes
- Usar IA sem aviso. Mesmo quando o uso seria permitido com aviso, a omissão gera irregularidade evitável.
- Subestimar o risco de deepfake produzido por terceiros. Adversários ou apoiadores fora de controle podem produzir material que prejudique a campanha. Falta de protocolo de resposta cobra preço quando o caso surge.
- Confundir IA editorial legítima com deepfake. Existe espaço para uso ético de IA em produção de campanha. A regra é a transparência, não a proibição absoluta de qualquer uso.
- Não treinar a equipe nas novas regras. Produção em volume com pessoas que não conhecem as exigências é receita para erros.
- Tratar a regulação como letra morta porque a tecnologia muda rápido. A regulação é aplicável agora. Ignorá-la apostando em ineficácia é aposta arriscada.
Perguntas-guia
- A equipe de produção de conteúdo conhece as regras da Resolução TSE nº 23.732, de 2024, sobre uso de IA, e opera com critérios claros para distinguir o permitido (com aviso) do vedado (deepfake)?
- Existe modelo padrão de aviso sobre uso de IA, aplicado de forma consistente em peças que utilizam essa tecnologia?
- Há protocolo de monitoramento de deepfake produzido contra a campanha, com canais de denúncia mapeados, plataforma e Justiça Eleitoral, e tempos de resposta definidos?
- Os fornecedores externos que produzem conteúdo para a campanha foram orientados sobre as regras aplicáveis ao uso de IA, com cláusulas contratuais que reforçam o cumprimento?
- A base ativa de apoiadores recebeu orientação sobre o que pode e o que não pode em produção espontânea de conteúdo com IA, evitando que entusiastas bem-intencionados gerem problemas indiretos?
A regulação como bússola em ambiente em transformação
Em ambiente brasileiro contemporâneo, a regulação de IA em propaganda eleitoral é peça nova de arcabouço em construção. As eleições gerais de 2026 são o primeiro grande teste em escala nacional, e os cinco anos seguintes provavelmente verão evolução adicional das regras conforme a tecnologia avance e novos riscos se apresentem. Para o profissional sério de marketing político, isso significa atenção permanente, atualização contínua, capacidade de adaptar protocolos quando regulação mudar.
A regulação atual oferece bússola clara para os pontos mais sensíveis. Deepfake é vedado em qualquer hipótese. IA com aviso transparente é permitida. Robô não pode simular diálogo humano. Plataformas têm obrigação ampliada de agir contra desinformação. Cada um desses pontos é orientação operacional para a equipe de campanha. Profissional que opera dentro do arcabouço respeita o equilíbrio que o legislador buscou construir; profissional que viola aposta em ineficácia da regra e descobre, frequentemente da pior forma, que o arcabouço tem dentes.
Material da AVM enfatiza, em diversos contextos, que o ofício de marketing político responsável combina conhecimento técnico das ferramentas com respeito ao arcabouço jurídico. Em campo de transformação tecnológica acelerada, essa combinação é especialmente importante. A capacidade de usar IA para acelerar produção, melhorar qualidade, otimizar campanha, tudo isso é legítimo quando feito com transparência. A tentação de usar IA para enganar, produzir deepfake, simular diálogo humano, fabricar realidade, é tentação que cobra preço alto cedo ou tarde.
A regulação brasileira de 2024 está entre as mais avançadas do mundo no enfrentamento dos riscos da IA em processos eleitorais, conforme registrado em material institucional. Isso é vantagem comparativa do país, e é também responsabilidade adicional para profissionais que operam aqui. Em ofício de longo prazo, operar dentro das regras, com domínio técnico das ferramentas e ética no uso, é parte do que constrói carreira sustentada. Quem entende investe em preparação; quem não entende paga preço quando a regulação aplicar contra a operação que ignorou. E é, no fim, mais um daqueles trabalhos pacientes de adaptação a ambiente em transformação que separa profissional sério de improvisação cara que se atrasa em relação a um cenário que muda a cada ciclo.
Ver também
- Desinformação eleitoral — Desinformação eleitoral: desinformação organizada com intencionalidade política. Resposta sistêmica, defesa por reputação e o caso do deepfake.
- Propaganda eleitoral: regras gerais — Propaganda eleitoral: período permitido, formatos, vedações, propaganda na internet. Regras gerais da Resolução TSE 23.610 e da Lei das Eleições.
- Impulsionamento de conteúdo eleitoral — Impulsionamento de conteúdo eleitoral: anúncios pagos em redes sociais, repositório obrigatório, palavras-chave vedadas. Regras da Resolução TSE 23.610 atualizada.
- Desinformação e Desinformação no Comportamento do Eleitor — Desinformação é conteúdo falso ou distorcido produzido e disseminado com potencial de influenciar decisões públicas, incluindo o voto. Desinformação, no sentido estrito, é a…
- Direito de resposta — Direito de resposta eleitoral garante que o candidato ofendido ou mal-informado em propaganda responda em espaço equivalente, no mesmo veículo e em prazo curto.
- Lei das Eleições — Lei das Eleições (9.504/1997) organiza candidatura, campanha, propaganda, financiamento e prestação de contas. É o tronco jurídico da disputa eleitoral.
- Ataque político: tipologia — Tipologia do ataque político: frontal, lateral, comparativo, de terceiros, por insinuação. Quando usar cada formato e os limites éticos.
Referências
- TRIBUNAL SUPERIOR ELEITORAL. Resolução nº 23.732, de 27 de fevereiro de 2024, que altera a Resolução nº 23.610, de 18 de dezembro de 2019.
- TRIBUNAL SUPERIOR ELEITORAL. Confira as novidades da resolução da propaganda sobre o enfrentamento da desinformação, agosto de 2024.
- SENADO FEDERAL. IA e desinformação: por que as eleições de 2026 exigem atenção redobrada, outubro de 2025.