Blog do Rogério Silva - Notícias em tempo real

Comportamento inautêntico coordenado e os limites da manipulação digital nas eleições 2026

Inicio este ensaio afirmando que a desumanização da rede não é apenas um subproduto tecnológico, mas uma estratégia de negócio que corrói pilar fundamental da democracia: a livre formação da vontade do eleitor.

O sufrágio universal pressupõe um eleitor informado e capaz de deliberar em liberdade. Essa premissa está sendo solapada por um processo anterior a qualquer eleição por meio de progressiva desumanização da própria internet. Em 2018, a New York Magazine revelou que, em determinado período de 2013, cerca de metade de todo o tráfego do YouTube era composto por bots se passando por pessoas. Tal proporção era tão elevada que os próprios engenheiros da plataforma temiam o fenômeno que denominaram internamente como “a Inversão”, definido como o ponto hipotético a partir do qual os sistemas de detecção de fraude passariam a classificar os bots como reais e os humanos como anomalias. No mesmo ano, o New York Times documentou, em “The Follower Factory”, como a indústria de contas falsas havia se tornado um mercado bilionário que contava com políticos entre seus clientes. Esses dados não são curiosidade tecnológica, visto que constituem o substrato empírico da Dead Internet Theory, a qual consiste na hipótese, progressivamente corroborada por estudos, de que menos de 60% do tráfego global da web é gerado por seres humanos.

O fenômeno ganhou dimensão radicalmente nova quando as próprias plataformas passaram a criar perfis artificiais como estratégia de negócio. Connor Hayes, vice-presidente de IA Generativa da Meta, anunciou ao Financial Times que a empresa espera que seus usuários de IA apareçam em suas redes da mesma forma que contas humanas, possuindo biografias, fotos e capacidade de engajar conteúdo. A jornalista Karen Attiah, do Washington Post, conversou no Instagram com “Liv”, um perfil que se apresentava como “orgulhosa mãe negra queer”. Ela constatou que o robô admitiu ter sido criado por uma equipe predominantemente branca e masculina, sem qualquer correspondência com a identidade exibida (CAMPOS, 2026). Com efeito, considerando todo este contexto parece crível afirmar que o mecanismo de controle colapsa quando o próprio guardião cria, instiga e, até, festeja, a ameaça.

Para o direito eleitoral, todas essas constatações representam um agravamento exponencial sobre a salubridade e higidez do ambiente político-eleitoral com sólido potencial de sepultamento das democracias representativas, considerando que o arquétipo sob o qual se construiu a lógica do sistema é, primordialmente, assegurar que os cidadãos exerçam sua capacidade eleitoral ativa de forma livre e soberana. A soberania popular, nunca é demais lembrar, se revela no poder incontrastável de decidir.

Constata-se, então, que na atualidade já não é suficiente combater apenas operações clandestinas de terceiros, mas uma arquitetura de negócio que institucionaliza a inautenticidade como produto. E, se esta é uma verdade, imponderável compreender e alertar que o debate público eleitoral, ocorrido nas redes sociais, passa a estar gravemente comprometido diante de uma artificialidade que fabrica discursos, aparentemente espontâneos e populares, por meio de operação coordenada de perfis fictícios, o denominado comportamento inautêntico coordenado.

O Comportamento Inautêntico Coordenado (CIB – Coordinated Inauthentic Behavior) é a categoria que descreve operações orquestradas de múltiplas contas, automatizadas ou controladas por humanos, destinadas a enganar outros usuários quanto à identidade, à origem e ao propósito dos atores envolvidos no debate. A distinção fundamental que o conceito introduz, e que o torna normativamente essencial, é a separação entre o plano do conteúdo e o plano do comportamento. Enquanto o regime jurídico tradicional ancora-se na falsidade da informação, o CIB desloca o dano, visto que uma operação pode veicular conteúdo factualmente verdadeiro e ainda assim constituir manipulação eleitoral grave, porque a percepção artificialmente amplificada de consenso que ela produz falsifica a ecologia do debate democrático.

Os precedentes concretos dissipam qualquer dúvida quanto à gravidade da ameaça. Em dezembro de 2024, as eleições presidenciais da Romênia foram anuladas após as autoridades de segurança demonstrarem que o candidato vencedor do primeiro turno havia sido promovido de forma maciça no TikTok por 25.000 contas pró-candidato, as quais se tornaram altamente ativas nas duas semanas anteriores ao pleito. Dentre esse contingente, quase 800 perfis foram criados em 2016 e mantidos inativos por anos, aguardando ativação coordenada (RAINSFORD, 2024; SOLEA, 2024). A eleição foi anulada, e a democracia romena forçada a reiniciar o certame, pois o debate havia sido colonizado por entidades desprovidas de personalidade civil.

Nas eleições alemãs de 2025, o parlamentar Konstantin von Notz declarou que o pleito sofreu manipulação clara e bem-sucedida por atores estrangeiros, cujas operações utilizaram o software Meliorator, ferramenta descrita pelo FBI como um pacote de inteligência artificial secreto capaz de engendrar personas digitais aptas a ludibriar os mecanismos de detecção das plataformas, levando-as a classificar bots como usuários humanos reais (BOND, 2024). O Brasil possui mais de 150 milhões de eleitores, detendo uma das maiores taxas de uso de redes sociais do mundo e um histórico recente de disputas eleitorais marcadas pela instrumentalização intensa do ambiente digital. Portanto, o CIB constitui um fenômeno endógeno, dispensando qualquer necessidade de importação.

Nesse contexto, o ecossistema digital das eleições gerais de 2026 apresenta desafios que transcendem a mera disseminação de fake news. O debate público eleitoral passou a ser contaminado, de forma estruturalmente mais grave pelo fenômeno do comportamento Inautêntico Coordenado. Como visto, não se trata apenas do conteúdo da mensagem, mas da artificialidade da rede que a propaga, utilizando perfis falsos e automatizados para produzir uma popularidade inexistente e induzir o eleitor a erro sobre a real expressividade política de candidaturas.

A distinção é fundamental precisa ser esclarecida desde logo: a desinformação eleitoral clássica (a fake news) atua sobre o conteúdo do discurso; veicula informações falsas sobre fatos ou sobre os candidatos. O CIB atua sobre a estrutura do discurso, ou seja, fabrica a aparência de que há um discurso espontâneo e popular onde na verdade existe apenas uma operação coordenada estrategicamente por meio de perfis fictícios. É, em sentido técnico e jurídico rigoroso, a falsificação do próprio debate democrático, e não de uma informação dentro dele. A estratagema tecnológica conduz ao falseamento do debate em si, ou ainda, da relevância de determinado conteúdo ou, mesmo, do próprio candidato.

O mecanismo central do Comportamento Inautêntico Coordenado (CIB), conforme identificado por Nathaniel Gleicher, diretor de políticas de segurança do Facebook, reside na utilização estratégica de contas falsas e duplicadas. Essas contas atuam de forma sinérgica para amplificar umas às outras, induzindo o público a uma percepção de popularidade que não possui correspondência com a realidade. Essa estratégia explora diretamente o funcionamento dos algoritmos de recomendação, que privilegiam conteúdos com maior engajamento.

Ora, se os algoritmos de recomendação de conteúdo tendem a amplificar publicações com maior engajamento, publicações com mais comentários e interações recebem mais visibilidade orgânica, atingindo mais usuários reais, que geram mais engajamento genuíno, inaugurando um ciclo autocumulativo. O CIB injeta nesse ciclo um engajamento fictício que desencadeia efeitos reais. Os perfis falsos geram mais visibilidade para o candidato, que atrai mais interações autênticas, que geram mais visibilidade – num processo de amplificação exponencial cujos efeitos não se desfazem pela simples remoção posterior dos perfis, pois a impressão de popularidade já terá sido consolidada no imaginário do eleitorado.

A Justiça Eleitoral brasileira, reconhecendo a gravidade crescente do fenômeno, reagiu com a edição da Resolução TSE nº 23.755/2026, que introduziu o art. 38-A na Resolução nº 23.610/2019, ou seja, o primeiro instrumento jurídico-positivo brasileiro expressamente concebido para combater o CIB no direito eleitoral.

A Resolução TSE nº 23.755/2026, editada em 2 de março de 2026, inseriu o art. 38-A na Resolução nº 23.610/2019, que consiste no diploma central da propaganda eleitoral, criando um mecanismo autônomo de remoção de perfis digitais falsos, apócrifos ou automatizados. A inovação possui natureza estrutural, uma vez que, enquanto o art. 38 opera sobre a camada do discurso, focando na remoção de conteúdo ilícito, o art. 38-A incide sobre a camada do ator. O dispositivo determina a exclusão quando o sujeito-perfil constituir, por sua própria essência, uma ficção ou um artefato criado com o fito de enganar.

Do texto do artigo emergem pressupostos cumulativos. O primeiro refere-se à comprovação da inautenticidade do perfil, subdividida em três categorias, quais sejam, o perfil “falso” por identidade inexistente, o “apócrifo” por ausência de autoria reconhecível e o “automatizado ou robô”, operado por sistemas computacionais sem presença humana real. O segundo requisito é de ordem comportamental, exigindo que as publicações configurem prática reiterada. Nesse sentido, não se admite a remoção por publicação isolada, o que impõe à Justiça Eleitoral o ônus de demonstrar a existência de um padrão. O terceiro pressuposto, previsto no inciso II, estabelece a necessidade de prévia declaração judicial de que os fatos veiculados são notoriamente inverídicos. Tal exigência cria uma dependência procedimental entre o art. 38-A e o regime do art. 38, formando uma cadeia que, embora garantidora da segurança jurídica, pode comprometer a celeridade da resposta em contextos de campanha nos quais o dano informacional se propaga em questão de horas.

O § 1º consagra o processo judicial sob a égide da ampla defesa e do contraditório, garantia que distingue o modelo brasileiro de sistemas que permitem a exclusão por decisão unilateral das plataformas, conforme imposição constitucional do art. 5º, LV. Por sua vez, o § 2º atua como limitador da autonomia privada, estabelecendo que a exclusão por iniciativa dos provedores somente é autorizada para perfis falsos, automatizados ou robôs. Tal vedação impede a remoção de qualquer conta cujo conteúdo contrarie meros interesses comerciais da plataforma, configurando uma resposta normativa direta ao risco de censura privada disfarçada de moderação.

A remoção de perfis coloca o intérprete diante de uma tensão constitucional inegociável. A liberdade de expressão, amparada pelo art. 5º, IV e IX da Carta Magna, e o anonimato, que é vedado para manifestações políticas identificáveis, mas funcionalmente protetivo para grupos vulneráveis e denunciantes, não se deixam delimitar com facilidade na arquitetura dos perfis digitais.

O arcabouço normativo introduzido pelo já mencionado art. 38-A não representa apenas um avanço procedimental, mas uma resposta estrutural à premente necessidade de preservar a ontologia do eleitor frente à desumanização digital. Ao enfrentar o Comportamento Inautêntico Coordenado, o Tribunal Superior Eleitoral atua na camada mais profunda do processo eleitoral, incidindo não sobre o conteúdo dos discursos, mas sobre a autenticidade dos sujeitos que os enunciam. Conforme observa Francieli Campos (2026), o óbice primordial da geração atual reside na manipulação do debate por perfis artificiais que orquestram as redes mediante a mimetização do embate político, o que torna o dispositivo arquitetonicamente coerente e teleologicamente claro. Seus limites probatórios e de extraterritorialidade não possuem o condão de invalidá-lo; ao revés, revelam o labor que ainda remanesce ao legislador e à magistratura para evitar que a “Inversão” (o ponto em que a máquina é tratada como real e o humano como anomalia) constitua o destino do debate brasileiro, visto que a soberania popular é atributo intrínseco das pessoas naturais.

Essa transição da norma para a salvaguarda da vontade livre evidencia que a integridade do certame depende, fundamentalmente, da contenção das simulações sistêmicas que ameaçam sequestrar o consenso democrático.

Em última análise, se a democracia é o governo do povo, para o povo e pelo povo, o Direito Eleitoral não pode permitir que a vontade popular seja mimetizada por algoritmos, sob pena de transformarmos o sufrágio universal em um simulacro estatístico gerado por máquinas, onde o cidadão é apenas um intruso em sua própria história. O desafio de 2026 não reside apenas em garantir o livre acesso às urnas, mas em assegurar que a consciência que as opera não tenha sido capturada por uma arquitetura de inautenticidade coordenada. A soberania é um atributo da vida real, e a Justiça Eleitoral firma-se, hodiernamente, como a última fronteira entre a deliberação livre e a manipulação industrializada.

Anna Graziella Santana Neiva Costa – Advogada, sócia-fundadora do escritório Anna Graziella Neiva Advocacia. Ex-juíza do Tribunal Regional Eleitoral do Maranhão e ex-ouvidora do TRE/MA. Pós-graduada em Direito Eleitoral, MBA em Direito Tributário, especialista em Ciência Jurídico-Política e Direito Constitucional e Eleitoral, membro consultora da Comissão Especial Eleitoral do Conselho Federal da Ordem dos Advogados do Brasil, membro da ABRADEP, do COPEJE e do IAB. Foto: Arquivo pessoal

Ana Júlia Estrela Araújo Flexa Ribeiro – Estagiária acadêmica de Direito do 7.º período do Centro Universitário Unidade de Ensino Superior Dom Bosco – UNDB

Categoria: Notícias