A Meta não se importa com a sua privacidade
E muito menos com a proteção de crianças.
Em março deste ano, a Meta sorrateiramente anunciou que desativaria permanentemente os recursos de criptografia ponta-a-ponta das DMs do Instagram, um dos seus aplicativos mais populares.
A criptografia ponta-a-ponta é o recurso que garante que apenas remetente e destinatário possam ler as mensagens – nem mesmo a plataforma pode acessá-las. Isso tem implicações concretas: jornalistas investigativos não são espionados pela plataforma; ativistas políticos em regimes repressivos não têm os conteúdos das suas mensagens devassados; pessoas em situação de risco (vítimas de stalking ou abuso, por exemplo) não precisam confiar que a empresa protegerá seus dados de terceiros; consumidores não terão os conteúdos de suas conversas utilizados para direcionamento de anúncios publicitários ou, mais problemático, para o treinamento de inteligência artificial.
No Instagram, a criptografia ponta-a-ponta foi anunciada no final de 2023, mas sempre foi oferecida como opcional: o consumidor deveria acioná-la manualmente. Agora, uma das justificativas públicas da Meta para a desativação da funcionalidade foi justamente o fato dela ter sido pouco utilizada pelas pessoas.
Ora, se é uma ferramenta que confere maior proteção ao usuário – um interesse que a empresa anuncia publicamente – porque tal funcionalidade não passou a ser ativada por padrão? Alguém poderia argumentar que a Meta estaria promovendo a liberdade de escolha ao consumidor, mas porque ter essa postura justamente nesse tópico?
O Instagram não nos deu essa mesma liberdade quando decidiu compartilhar nossos dados pessoais para fins de publicidade ou quando implementou o feed algorítmico. Ou seja, nos parece que mudanças estruturais são impostas apenas quando visam o lucro da empresa, por meio de novos mecanismos para capturar nossa atenção. Todo o resto – como a proteção de nossa privacidade – é facilmente descartável.
Se a Meta, de fato, tivesse interesse em proteger crianças e adolescentes no ambiente online, não teria se oposto à aprovação do ECA Digital.
Outro argumento mobilizado publicamente foi o de que a criptografia, mesmo sendo um recurso importante de proteção, também facilita a vida de atores mal intencionados, como aqueles conhecidos por violar o direito de crianças e adolescentes, por meio de comunicações privadas relacionadas à abuso sexual infantil.
Mas se a Meta, de fato, tivesse interesse em proteger crianças e adolescentes no ambiente online, não teria se oposto à aprovação do ECA Digital por meio de ações de lobby bem documentadas, muito menos teria explorado vulnerabilidades emocionais sobre imagem corporal, como quando direcionou anúncios de beleza para adolescentes que haviam deletado suas selfies. Proteção de crianças e adolescentes é coisa séria e uma medida isolada não é sinal de que estão fazendo a coisa certa.
Acontece que privar toda a coletividade de um recurso de proteção apenas para dificultar a vida de alguns é um argumento que já foi superado. É importante lembrar que o debate sobre criptografia está amadurecido no Brasil, seja pelas produções acadêmicas, pelo engajamento da sociedade civil (hoje, por exemplo, começa a CryptoRave) e pelos importantes votos no Supremo Tribunal Federal frente ao tema.
Lembram de quando o WhatsApp passou por inúmeros bloqueios judiciais? Então, o grande cerne da questão era o fato de que as autoridades não conseguiam acessar as mensagens trocadas entre as pessoas e pediam a suspensão do aplicativo (que, tecnicamente, não conseguia fornecer as informações solicitadas).
Tal debate foi feito na corte brasileira e o entendimento dos relatores, Rosa Weber e Edson Fachin, foi de que a criptografia é essencial para a proteção de direitos fundamentais ligados à privacidade e segurança, e que investigações policiais devem utilizar outros métodos: análise de metadados, geolocalização, cooperação internacional.
Se a criptografia fosse realmente incompatível com segurança pública, o WhatsApp teria sido bloqueado permanentemente – e não foi. Como bem demostrou Felca, os atores mal intencionado não atuam especificamente nas DMs, mas estão operando em plena luz do dia, nos feeds públicos, em perfis abertos, nos comentários de publicações… É o famoso “quem quer, acha”.
Ou seja, o papo da Meta não cola. Conforme noticiado pela Wired, tal ação está relacionada a uma mudança de postura corporativa que temos acompanhado ao longo dos últimos, onde a empresa basicamente mente para todos nós. Um gaslighting institucional.
Em dezembro de 2023, Mark Zuckerberg fez um anúncio informando que a criptografia por padrão estava pronta para o Messenger e em teste para Instagram. Assim, a Meta projetou uma imagem de empresa preocupada com a privacidade após escândalos como o da Cambridge Analytica, usando essa narrativa pró-criptografia como um escudo contra críticas, e agora a descarta quando a sua reputação já não depende tanto disso.
Por aqui, na CTRL+Z, acreditamos que tal mudança viola uma série de legislações brasileiras, da Constituição Federal ao Código de Defesa do Consumidor.
Imagine só se uma empresa do setor alimentício, farmacêutico ou automobilístico oferecesse um produto melhor e, anos depois, retrocedesse a um sistema de segurança pior? Alguém acharia isso correto? Não, né? Por isso, precisamos aplicar o mesmo rigor às empresas de tecnologia, que assim como qualquer indústria, faz parte do nosso dia-a-dia e afeta nossa saúde, nossa segurança e nossos direitos. Por isso, afirmamos: A Meta não se importa com a sua privacidade, muito menos com a proteção de crianças.
Por Luã Cruz, diretor de litigância da CTRL+Z.
Imagem: Adam Mosseri, CEO do Instagram, em montagem sobre foto de Anthony Quintano (CC/2.0)


