Os dois movimentos que estão encurralando as big techs
Está acontecendo. Aqui estão os sinais.
Pode parecer ingênuo. Mas as big techs estão chegando em um ponto em que podem ser encurraladas. Não vai ser fácil e nem rápido. Mas vai acontecer.
E não estamos falando de iniciativas – muito bem-vindas – de regulação mundo afora. Sim, países defendendo sua soberania digital, o nosso Eca Digital estabelecendo limites para as plataformas, o histórico julgamento nos EUA que considerou as big techs responsáveis por danos à saúde mental, as iniciativas de restrição de redes sociais para crianças e adolescentes em vários países, tudo isso sinaliza que governos e Justiça em todo o mundo já estão reconhecendo que o modelo de negócio dessas empresas é danoso e precisa ser freado.
Mas isso tudo só aconteceu porque dois movimentos começaram antes. Um deles, dentro das próprias empresas. O outro, aqui do lado de fora.
Vamos começar pelo primeiro. Só neste ano, três funcionários de big tech pediram demissão e se manifestaram publicamente sobre condutas questionáveis dentro das empresas.
Em fevereiro, a pesquisadora Zoe Hitzig pediu demissão após dois anos de OpenAI. O estopim foi a empresa anunciar que pretende monetizar os dados dos usuários no ChatGPT. Para Hitzig, que publicou um artigo no jornal The New York Times, há um enorme potencial para manipular os usuários, que confiam na IA e entregam informações muito íntimas – como dados médicos, de relacionamento e crenças espirituais. Em uma entrevista recente, ela foi ainda mais incisiva: “A IA está jogando com a mente das pessoas”, declarou.
A pressão popular é crescente. E não há nenhum sinal de que ela irá parar.
Também da OpenAI, Caitlin Kalinowski, responsável pela área de hardware e robótica, pediu demissão após a empresa anunciar um acordo com o Departamento de Defesa dos EUA. “O anúncio foi feito às pressas sem que os mecanismos de proteção fossem definidos. É antes de tudo uma preocupação de governança. Essas questões são importantes demais para que acordos ou anúncios sejam precipitados”, ela escreveu em um post no LinkedIn.
Para quem não acompanhou, a OpenAI fez uma parceria com o Pentágono após sua concorrente, a Anthropic, ter rejeitado um acordo por discordar de questões sobre vigilância em massa e armas autônomas. Mas se você acha que a Anthropic é a boazinha, já adianto: essa história não tem mocinhos.
É só ler a carta que Mrinank Sharma, que liderava o time de pesquisa de segurança do Claude, escreveu ao pedir demissão da empresa, em fevereiro. Ele deu a entender que há pressão para deixar de lado temas importantes, e manifestou preocupação sobre a tendência da IA em ser bajuladora em relação ao usuário, reforçando suas crenças. Para Sharma, o mundo está “em perigo”.
Como a gente não pode se dedicar à poesia, como ele anunciou que vai fazer, seguimos documentando esses casos – e mostrando que eles fazem parte de um movimento maior, que se intensificou a partir do ano passado.
Em 2025, a ex-executiva de políticas públicas da Meta Sarah Wynn-Willians lançou “Careless People”, livro que detalha a cultura corporativa dentro da empresa. A Meta, essa empresa que defende com unhas e dentes da liberdade de expressão, tentou proibir a divulgação do livro nos EUA – em vão. O livro foi parar no topo dos mais vendidos do New York Times.
Além de denúncias de assédio e de informações sobre danos à saúde mental documentados internamente, Wynn-Willians apresenta uma rara visão interna interna de um dos piores episódios envolvendo o Facebook: o genocídio de Myanmar. Na época, a rede social facilitou a difusão de discurso de ódio e incitação ao genocídio contra a minoria Rohingya. Wynn-Willians mostrou que o Facebook falhou na moderação de conteúdo, já que Myanmar “não era um país prioritário” na região.
A história mostrou que movimento interno de denunciantes pode fazer o ponteiro girar. Há 12 anos, Edward Snowden mostrou como empresas de tecnologia estavam espionando massivamente cidadãos para a CIA. Pouco depois, o escândalo Cambridge Analytica revelou que dados comportamentais de usuários estavam sendo usados para manipular eleitores.
Mais recentemente, Frances Haugen revelou centenas de documentos internos da Meta no vazamento conhecido como “Facebook Papers”, que provou que a empresa tinha conhecimento sobre danos à saúde mental e circulação de teorias conspiratórias apesar de publicamente alegar o contrário.
Em todos esses casos, fatos de interesse público vieram à tona a partir do movimento interno: ex-funcionários que resolveram denunciar. E o que eles fizeram reverberou em todo o mundo, para além dos muros das big techs.
É esse o segundo movimento. A pressão popular é crescente. E não há nenhum sinal de que ela irá parar. No ano passado, o vídeo do Felca fez muita gente por aqui perceber o quanto crianças estavam em risco nas plataformas – e a enorme comoção popular levou à aprovação do Eca Digital, uma lei que estabeleceu limites claros para atuação das big techs no país (não por acaso, elas tentaram afrouxar o projeto – mas não conseguiram).

Nos EUA, o caso de K.G.M., a jovem de 20 anos que acabou de derrotar Google e Meta na justiça, também usou como base muito documentos internos que mostraram que as empresas sabiam que seus serviços provocavam danos. Em uma conversa interna, funcionários chegam se comparar com traficantes. Agora, o caso serviu como inspiração para milhares de outras ações judiciais do tipo nos EUA, que exigem reparação das grandes plataformas sobre danos causados à saúde mental de crianças e adolescentes.
Por lá, o movimento de pais e mães de vítimas se organiza há anos – se você não viu, vale ver o pedido de desculpas cínico que Zuckerberg foi obrigado a dar a eles durante uma audiência no Senado no início de 2024. Agora, o caso de K.G.M. mostrou que a era de derrotas pode estar só no começo – com implicações inclusive no Brasil.
A história recente mostra que esses dois movimentos de resistência – o interno e o externo – podem mudar o jogo. Já está acontecendo.
Vá mais fundo:
Entrevista com Daniela da Silva, diretora-executiva da CTRL+Z: Vigilância de big techs inibe denúncias internas, diz ex-executiva do WhatsApp
A OpenAI está cometendo os mesmos erros do Facebook. Eu pedi demissão. (em inglês)
Resenha de ‘Careless People’ (em inglês)



“Diagrama vazado mostra o mecanismo do vício nas redes sociais” galera, diagrama vazado de onde, com todo o respeito? Esse diagrama é do livro Hooked, do Nir Eyal. No caso esse diagrama tava em algum dos documentos vazados? Não entendi.