O Tribunal Superior Eleitoral aprovou a Resolução número 23.755, de 2026, que estabelece restrições ao uso de sistemas de inteligência artificial durante as eleições de 2026. Essa norma proíbe provedores de aplicações que oferecem ferramentas de inteligência artificial de recomendar, sugerir ou priorizar conteúdos relacionados a candidatos, campanhas, partidos ou federações partidárias. A medida visa combater a disseminação de desinformação e manipulação eleitoral por meio de tecnologias avançadas.
A relevância dessa resolução surge em um contexto em que a inteligência artificial, especialmente modelos generativos como o ChatGPT, tem se tornado ferramenta comum para processamento de informações. Um eleitor que deseje comparar propostas de candidatos sobre temas como filas no Sistema Único de Saúde ou vagas em creches pode se deparar com limitações impostas por essas plataformas, não por falhas técnicas, mas por cumprimento da norma eleitoral. Isso levanta questionamentos sobre o equilíbrio entre proteção ao processo democrático e direitos fundamentais.
O debate central gira em torno da compatibilidade dessa proibição com a Constituição Federal de 1988. Especialistas jurídicos argumentam que restrições excessivas podem ferir a liberdade de expressão e o acesso à informação, pilares do regime democrático previstos no artigo 5º da Carta Magna. Por outro lado, defensores da medida destacam a necessidade de salvaguardar a lisura das eleições diante dos riscos de deepfakes e conteúdos manipulados.
A inteligência artificial refere-se a sistemas computacionais capazes de realizar tarefas que normalmente exigem inteligência humana, como geração de texto, imagens ou análises. Nos últimos anos, avanços em modelos de linguagem grande, treinados com vastos conjuntos de dados, permitiram aplicações como chatbots que respondem consultas complexas. No Brasil, o crescimento do uso dessas tecnologias coincide com preocupações eleitorais intensificadas após as eleições de 2022, marcadas por acusações de fake news.
Historicamente, o Tribunal Superior Eleitoral tem adotado medidas preventivas contra abusos tecnológicos. Em 2024, para as eleições municipais, o TSE já havia regulamentado o uso de IA na propaganda, proibindo a criação e propagação de conteúdos falsos. A resolução atual amplia esse escopo, atingindo não apenas partidos e candidatos, mas também plataformas digitais que integram IA. Essa evolução reflete a adaptação do direito eleitoral à era digital.
No mercado atual, empresas como OpenAI, Google e Meta enfrentam dilemas semelhantes globalmente. Nos Estados Unidos, discussões sobre IA em campanhas presidenciais levaram a orientações voluntárias de plataformas para limitar recomendações políticas. No Brasil, o impacto recai sobre desenvolvedores locais e internacionais que operam no país, obrigando ajustes em algoritmos para cumprir a lei, sob pena de sanções.
Para usuários comuns, as implicações práticas são imediatas. Ferramentas de IA que antes auxiliavam na pesquisa de propostas eleitorais agora restringem respostas sobre temas sensíveis. Isso pode reduzir a capacidade dos eleitores de acessarem análises imparciais, forçando-os a fontes tradicionais de mídia ou sites oficiais, que nem sempre oferecem comparações diretas e atualizadas.
Empresas de tecnologia no Brasil, parte de um ecossistema em expansão, precisam investir em compliance jurídico. O setor de inteligência artificial cresceu significativamente, com startups desenvolvendo soluções locais adaptadas à língua portuguesa. A resolução impõe desafios para monetização de serviços durante períodos eleitorais, potencialmente freando inovações em um momento crítico.
Comparativamente, a União Europeia aprovou o Ato de Inteligência Artificial em 2024, classificando aplicações de alto risco, incluindo aquelas em contextos eleitorais. No Brasil, embora não haja legislação geral específica, o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais servem de base para regulamentações setoriais como essa do TSE.
Argumentos contra a proibição invocam o princípio da proporcionalidade. Juristas apontam que a Constituição garante a livre manifestação do pensamento e proíbe censura prévia. Restringir IA de forma ampla poderia equivaler a uma barreira desproporcional ao fluxo de informações, especialmente quando a tecnologia pode ser usada para debater ideias de forma construtiva.
Por outro lado, o TSE justifica a medida com base no artigo 14 da Constituição, que assegura a soberania popular por meio de eleições periódicas e livres. A proliferação de conteúdos gerados por IA, como deepfakes – vídeos ou áudios falsos hiper-realistas –, ameaça a autenticidade do debate público, conforme evidenciado em eleições recentes em outros países.
No contexto brasileiro, o mercado de IA está em franca expansão. Relatórios indicam que o país figura entre os maiores usuários de ferramentas generativas na América Latina. Profissionais de TI e desenvolvedores agora devem considerar calendários eleitorais em seus roadmaps, adaptando produtos para evitar violações inadvertidas.
Impactos para o ecossistema de startups são notáveis. Empresas que oferecem chatbots personalizados para atendimento ou análise de dados enfrentam riscos se esses sistemas forem usados em contextos políticos. Isso pode levar a uma autorregulação mais rigorosa, com filtros de conteúdo que limitem funcionalidades durante campanhas.
O cenário atual também envolve parcerias entre big techs e órgãos reguladores. O TSE tem colaborado com plataformas para monitoramento de desinformação, similar a iniciativas globais como o Twitter Files ou parcerias do Meta com fact-checkers. Essa cooperação é essencial, mas levanta preocupações sobre neutralidade algorítmica.
Possíveis desdobramentos incluem ações judiciais questionando a constitucionalidade da resolução. Partidos políticos ou associações de tecnologia poderiam recorrer ao Supremo Tribunal Federal, alegando violação a direitos fundamentais. Precedentes como a liberação de redes sociais em eleições passadas reforçam esse caminho.
Além disso, a resolução pode evoluir com novas tecnologias. Avanços em IA multimodal, que combinam texto, imagem e voz, demandarão atualizações constantes nas normas. O TSE sinaliza intenção de rever regras anualmente, acompanhando o ritmo da inovação.
Em síntese, a Resolução 23.755/2026 representa um marco na regulação de IA no âmbito eleitoral brasileiro. Ela equilibra a inovação tecnológica com a proteção da democracia, embora gere controvérsias sobre limites constitucionais. O debate jurídico em curso destaca a tensão entre progresso e salvaguarda institucional.
Futuros desenvolvimentos dependerão de decisões judiciais e adaptações tecnológicas. Se confirmada, a proibição moldará o uso de IA por anos, influenciando eleições futuras. Para o cenário tecnológico nacional, reforça a necessidade de um marco regulatório abrangente.
A relevância desse tema transcende 2026, posicionando o Brasil como referência em governança digital. Profissionais de tecnologia e juristas acompanharão de perto como o país navega essa interseção entre IA e democracia, definindo padrões para a era da inteligência artificial.