Soberania digital e quem manda na internet

Trata-se de uma questão de cidadania e não conversa para especialistas
ouça este conteúdo
00:00 / 00:00
1x

Quando a Indonésia assinou um acordo comercial com os Estados Unidos, em fevereiro de 2026, após receber a ameaça de uma tarifa de 32% sobre suas exportações, um detalhe importante passou despercebido por muita gente. O país se comprometeu a não adotar medidas contra serviços digitais americanos. Basicamente, os indonésios prometeram não regular plataformas como Google, Meta e Amazon.

Outros dez países fizeram acordos semelhantes, de acordo com o relatório “A mão invisível das Big Techs”, uma investigação colaborativa feita por 17 veículos de 13 países, incluindo o ICL, liderada pela Agência Pública e pelo Centro Latinoamericano de Investigación Periodística, publicada em abril de 2026. Outros países incluem Argentina, El Salvador, Equador, Guatemala, Tailândia, Coreia do Sul, Camboja e Malásia.

O mecanismo dos acordos abrange as principais demandas das empresas de tecnologia, sem qualquer discussão multilateral. As big techs apresentaram suas prioridades e o governo dos EUA as encampou.

A nova face da soberania digital vai além de debater quem controla as plataformas e é também sobre quem consegue impedir que sejam reguladas.

O problema tem endereço

Soberania digital é a capacidade de um país, e de seus cidadãos, de ter algum controle sobre a infraestrutura tecnológica que faz parte das suas vidas. Quem armazena seus dados, como são guardados, como funcionam e quais algoritmos decidem o que você vê e quem define o que pode circular no espaço público digital.

Hoje, esse poder está concentrado em poucas empresas. Google, Meta, Amazon, Apple e Microsoft controlam boa parte da tecnologia utilizada na comunicação global. Como se sabe, essas plataformas se tornam cada vez mais difíceis de serem abandonadas à medida que crescem, tornando quase compulsória a nossa participação nesses ambientes digitais para trabalhar, nos comunicarmos e até nos divertirmos.

É uma economia de escala. Quanto mais usuários uma plataforma tem, mais valiosa e indispensável ela se torna e maior é o seu poder. Existe uma máxima que diz que “se você não paga para utilizar um produto, então, o produto é você”. Os dados que você gera são, exatamente, o que as big techs vendem, normalmente em forma de anúncios apresentados para você mesmo. É o que se chama capitalismo de vigilância, que cresceu, justamente, na ausência de regulação para mediar essa relação.

Já vimos casos assim

Já vimos esse problema se desenrolar no Brasil. Nas eleições de 2018 e nas seguintes, o TSE precisou negociar com Facebook, WhatsApp, TikTok e YouTube para tentar conter as campanhas de desinformação que circulavam por lá. O Estado teve que solicitar a colaboração de empresas privadas estrangeiras para proteger a democracia brasileira. E essas empresas toparam apenas parcialmente, quando quiseram e nos termos que escolheram aceitar.

Em outubro de 2026, teremos eleições e esse cenário pode se repetir, desta vez, com uma camada nova. O TSE aprovou 14 resoluções em março deste ano para tentar conter o uso da Inteligência Artificial nas campanhas. Entre elas, para dificultar a desinformação e notícias falsas, ficou proibido o uso de conteúdo sintético de voz ou imagem de candidatos nas 72 horas antes do pleito. As plataformas serão obrigadas a remover este tipo de conteúdo sem a necessidade de ordem judicial para cada caso.

São avanços reais. O problema é que as resoluções alcançam o que é visível, o deepfake identificado, o perfil falso denunciado, e têm muito menos poder sobre o que realmente move uma campanha digital. São os algoritmos de recomendação que decidem quais conteúdos políticos chegam a quem e não há transparência sobre como funcionam. Tudo isso é piorado pelo impulsionamento pago, que amplifica narrativas sem deixar rastro claro, e pelos grupos de WhatsApp e Telegram que operam fora de qualquer fiscalização.

Segundo o Observatório Lupa, a disseminação de conteúdos falsos criados com IA cresceu 308% entre 2024 e 2025, passando de 39 para 159 casos identificados. Se os números absolutos parecem baixos, pense que isso é o que foi flagrado, muito mais corre sem que ninguém saiba. Antes, esse tipo de uso da tecnologia era focado em aplicar golpes financeiros. Agora, as mesmas táticas são utilizadas para ampliar a desinformação política.

O Brasil vai entrar no primeiro ciclo eleitoral com regras específicas para IA. Acontece que a tecnologia se move muito mais rápido do que a regulação consegue acompanhar. É uma eterna corrida atrás do próprio rabo.

Em 2022, o Telegram disparou uma mensagem para todos os usuários no Brasil e chamou de ataque à democracia um projeto de lei que tentava regulá-lo. O Google chegou a pagar mais de meio milhão de reais em anúncios no Facebook para criticar esse mesmo projeto. As mesmas empresas que deveriam ser reguladas financiaram a narrativa contra a regulação. E a campanha funcionou. O PL das Fake News, que tinha defeitos e precisava ser aprimorado, acabou enterrado na Câmara, em 2024. É muito difícil competir contra quem estabelece e muda as regras do jogo como quiser.

Elon Musk em retrato formal com fundo escuro, associado ao debate sobre o poder das plataformas digitais e conflitos com regulações nacionais na discussão sobre soberania digital.
Elon Musk, dono do X: confronto com o STF em 2024 (Foto: Etienne Laurent/AFP)

Em 2024, Elon Musk, dono do X (antigo Twitter), se recusou a cumprir determinações judiciais brasileiras, fechou o escritório local do X e utilizou a plataforma para atacar o ministro Alexandre de Moraes. O X acabou bloqueado no país.

Musk não tem problemas em obedecer decisões judiciais na Índia e na China, onde tem interesses econômicos com suas empresas, mesmo que alguns desses países sejam governados por regimes autoritários. Mesmo assim, no Brasil, Elon falou em ataque à liberdade de expressão enquanto o X estava fora do ar.

Ao mesmo tempo, a Starlink, sua empresa de conexão à internet via satélite, seguiu operando normalmente por aqui, criando um paradoxo. O mesmo bilionário que desrespeitou a lei brasileira numa plataforma controlava parte da infraestrutura de acesso à internet no território nacional.

Já em janeiro de 2025, Mark Zuckerberg anunciou o fim do programa de checagem de fatos do Facebook, Instagram e Threads nos EUA, dizendo ser censura. A empresa garantiu que a mudança não valeria no Brasil, numa sinalização de que as plataformas definem suas próprias regras, na hora que quiserem.

A batalha pela narrativa

Há ainda uma outra dimensão desse problema, que vai além da política. Boa parte dos principais modelos de IA foi treinada com dados em inglês, com perspectivas do Norte Global. Quando uma dessas ferramentas responde sobre história ou política brasileira, por exemplo, a realidade local é filtrada por uma lente construída fora daqui.

O presidente francês Emmanuel Macron já declarou que não é aceitável depender de algumas empresas americanas para cuidar da infraestrutura de dados europeia. Quem treina os modelos define o que eles sabem e isso, claro, tem consequências políticas diretas.

Treinar uma IA é, de certa forma, escrever uma enciclopédia invisível, como já foi dito. Quem define os dados define o que vai ser lembrado e o que vai ser esquecido.

Por isso, iniciativas com o Latam-GPT importam. O projeto criou um modelo de linguagem treinado com dados e contextos latino-americanos. Singapura fez algo semelhante com dados asiáticos.

Lançado em fevereiro de 2026, o Latam-GPT é uma parceria entre Brasil e Chile com o apoio de mais de sessenta organizações em quinze países e financiamento do Banco de Desenvolvimento da América Latina.

Regulação não é censura

Quando se começa a falar sobre regulação, parte da direita cita a China e a Rússia como exemplos de países que utilizaram o discurso da soberania digital como justificativa para construir internets fechadas e controladas pelo Estado. É um argumento que deve ser levado a sério, porque o Estado concentrar todo esse poder pode ser até mais perigoso do que corporações.

A Europa tem o Digital Services Act e o Digital Markets Act, que obrigam plataformas a responder pelo que circula em suas redes, a explicar seus algoritmos e a não adotar práticas anticompetitivas. É um caminho válido, porém, pode ser mais produtivo se focar nos algoritmos e nas formas de amplificar a distribuição das plataformas do que propriamente no que está sendo publicado. Afinal, para grande parte dos conteúdos problemáticos, já existem leis que dão conta.

No Brasil, o Projeto de Lei 4.675/2025 é uma tentativa de buscar um caminho semelhante, mesmo que de maneira mais tímida. Mesmo assim, o projeto já está na mira das big techs e seus lobbies poderosos. Responsabilizar não é o mesmo que censurar e, talvez, essa confusão seja o ponto fraco do PL.

Ninguém deseja que o Estado decida o que os brasileiros podem dizer. O cenário ideal é que empresas que lucram bilhões com o tráfego de informação no Brasil respondam pelas consequências causadas por seus sistemas, pelo que decide entregar para quem, não exatamente pelo que foi dito. Outro ponto de atenção diz respeito ao modelo de negócios das plataformas, que, para lucrar, dependem de mecânicas nem sempre positivas para a sociedade.

A soberania começa na sua tela

O algoritmo do TikTok sabe o que vai prender sua atenção melhor do que você. O WhatsApp distribui redes de desinformação que chegam à vovó antes de qualquer checagem. Esses sistemas não foram projetados pensando no bem-estar do usuário ou na saúde da democracia, e sim para maximizar engajamento. Porque o engajamento aumenta o tempo de tela, que gera mais dados, que viram anúncios vendidos por muito dinheiro por essas empresas.

Quando um brasileiro ou brasileira vota influenciado por uma campanha publicada nas redes, impulsionada via pagamentos não se sabe de quem e amplificada por algoritmos que ninguém auditou, a soberania do processo democrático está com as plataformas, não com o eleitor.

Soberania digital é uma questão de cidadania, não é conversa para especialistas. Exige uma regulação inteligente, transparência algorítmica e investimento público em alternativas. Infraestrutura digital não pode ser um tema restrito a empresas privadas estrangeiras, assim como estradas e hospitais não são.

Muito mais do que regular as plataformas, precisamos discutir quem vai fazer essa regulação, como e em favor de quem. E essa é, definitivamente, uma pergunta política.

Assine a Revista Liberta

Tenha acesso ilimitado a todas as edições, com reportagens exclusivas, análises jurídicas e políticas, além de um olhar crítico sobre a história sendo escrita diante dos nossos olhos.

Quero Assinar
Já é assinante? Entrar