report-download-button

Download the report

Há pelo menos uma década, instituições de direitos humanos têm reconhecido o potencial da Internet para concretizar uma série de direitos humanos. As tecnologias digitais se mostraram ferramentas imensamente transformadoras para permitir às pessoas se manifestarem contra atos arbitrários de poderes públicos e privados, empoderando a expressão de grupos historicamente vulneráveis, marginalizados e silenciados, catalisando a organização e a participação cívica e facilitando formas inovadoras de construir e compartilhar conhecimento coletivamente. Desde então, o direito de buscar, receber e difundir informações tem possibilitado o exercício de outros direitos e fortalecido o ecossistema da Internet, mas não sem retrocessos e desafios críticos.

A discussão atual sobre a regulação de plataformas no Brasil, com destaque ao projeto de lei 2630 (PL 2630) e os casos constitucionais pendentes no Supremo Tribunal Federal (STF), demonstra que muito se está buscando fazer para enfrentar esses desafios, mas mostra também que elaborar respostas adequadas não é tarefa trivial. Devemos ter a capacidade de modelar essas respostas, protegendo o potencial positivo das tecnologias digitais e o papel essencial que a liberdade de expressão, incluindo o acesso à informação, desempenha na preservação de sociedades democráticas.

Um breve histórico 

O PL 2630, também conhecido como “PL das Fake News”, foi proposto no Senado brasileiro em 2020. A pressão de organizações da sociedade civil, com destaque à Coalizão Direitos na Rede, para melhorar o texto, bem como o trabalho delas em conjunto com o relator do projeto de lei na Câmara dos Deputados, foram fundamentais para neutralizar ameaças como a obrigação de rastreabilidade de mensagens criptografadas de ponta-a-ponta. Até então, os grupos brasileiros de direitos digitais também haviam enfatizado que a regulação deveria se concentrar em processos de moderação de conteúdo (por exemplo, transparência e regras de devido processo) em vez de restrição de certos tipos de conteúdo. Após a divulgação de um novo texto preliminar no início de 2022, o projeto de lei permaneceu parado na Câmara dos Deputados até o início de 2023.

Na esteira da tentativa fracassada da extrema direita no início deste ano de derrubar o novo governo do presidente Lula da Silva e de um pico de ataques violentos em escolas brasileiras, o PL 2630 se consolidou como o caminho legislativo para enfrentar preocupações mais abrangentes sobre o uso de tecnologias digitais em contextos de agitação social. Para isso, o Poder Executivo propôs ao relator do PL um novo texto que introduziu várias mudanças, considerando leis como a alemã NetzDG, o Digital Services Act (Lei de Serviços Digitais - DSA) da União Europeia (UE) e iniciativas de lei como o controverso Online Safety Bill do Reino Unido.

A versão mais recente publicada do PL incorpora algumas dessas propostas, como regras de avaliação de risco, obrigações de dever de cuidado e novas exceções à regra geral de responsabilidade de intermediários de internet em vigor no Brasil. De acordo com o artigo 2º do projeto de lei, suas regras se aplicam às redes sociais, mecanismos de busca e serviços de mensageria instantânea constituídos na forma de pessoa jurídica e com mais de dez milhões de usuários mensais no Brasil. Embora a DSA seja frequentemente mencionada como uma inspiração e precedente democrático que fundamenta a nova proposta, o texto reformulado do projeto de lei apresenta diferenças importantes com a lei europeia e ainda falha em garantir freios e contrapesos suficientes considerando o contexto e o marco institucional brasileiros.  

Em paralelo, o STF tem casos pendentes sobre responsabilidade de intermediários de internet (repercussão geral 533 e 987) e sobre bloqueios de sites e aplicações online ordenados por autoridades judiciais (ADI 5527 e ADPF 403). Atualmente, o regime geral de responsabilidade de intermediários no Brasil é estabelecido pelo artigo 19 do Marco Civil da Internet (Lei no 12.965/2014). De acordo com o artigo 19, as aplicações de internet podem ser responsabilizadas por conteúdos de seus usuários apenas quando deixam de cumprir uma decisão judicial ordenando a remoção de conteúdo infringente. Há exceções em que uma notificação extrajudicial pode tornar as plataformas responsáveis por conteúdo de terceiros, como violação de direitos autorais, divulgação não autorizada de imagens privadas que contenham nudez ou atividade sexual e conteúdo que envolva abuso sexual infantil.

Alguns ministros do STF expressaram sua opinião de que o regime geral do Marco Civil precisa de uma atualização para endurecer as regras de responsabilidade de intermediários, e os casos constitucionais pendentes podem ser uma maneira de fazê-lo se o Congresso demorar para lidar com a questão. O papel cada vez mais poderoso das principais aplicações de internet tem motivado debates e iniciativas para revisar os atuais regimes de responsabilidade de intermediários em diferentes países. No entanto, há perguntas-chave a fazer, ferramentas a considerar e lições aprendidas a ter como base antes de se introduzir mudanças que possam afetar seriamente expressões protegidas e a capacidade das pessoas de fortalecerem suas vozes e direitos fazendo uso de tecnologias digitais.

Por sua vez, a decisão do STF sobre bloqueios de sites e aplicações online foi interrompida desde 2020, quando o Ministro Alexandre de Moraes pediu vistas do processo, devolvendo-o apenas em março deste ano. Esses casos se referem aos bloqueios do WhatsApp no Brasil em 2015 e 2016, envolvendo a questão de se autoridades poderiam exigir que um provedor de aplicações comprometesse suas implementações de privacidade e segurança por padrão, ou seja, a criptografia de ponta-a-ponta, para divulgar dados de comunicações do usuário no âmbito de uma investigação criminal. O julgamento dos casos começou em 2020 com votos importantes dos Ministros Edson Fachin e Rosa Weber apoiando as proteções de privacidade e segurança incorporadas na arquitetura dos sistemas digitais e rejeitando a interpretação da lei brasileira para permitir a determinação judicial de bloqueios com o objetivo de comprometer tais proteções. Infelizmente, os possíveis resultados de retomar esse julgamento no contexto atual são imprevisíveis. Seguindo seu papel pioneiro de reconhecer a proteção de dados pessoais como um direito fundamental na Constituição Federal brasileira, é essencial que o STF endosse os votos dos Ministros Rosa Weber e Edson Fachin em favor de proteções robustas de privacidade e segurança por padrão. 

Apesar das movimentações do Poder Executivo e do STF para mudanças no atual marco regulatório brasileiro, os atores políticos concordaram, pelo menos por enquanto, que o Congresso é o local adequado para um debate democrático sobre regulação de plataformas. Nós também concordamos. É pertinente, assim, analisar o projeto de lei em discussão à luz do debate atualmente em curso no país. Embora o PL contenha elementos positivos, devemos destacar pontos ainda a serem melhorados.

Pontos de preocupação importantes

O PL 2630 pretende fortalecer os direitos de usuárias e usuários frente ao poder de grandes aplicações de internet, como Facebook, Youtube e Twitter. No entanto, há pontos de preocupação cruciais que o debate sobre regulação de plataformas e o PL 2630 devem considerar atentamente. Outros grupos na região, como Derechos Digitales, levantaram pontos de atenção. Como passamos a elaborar neste texto, há um conjunto de questões que as partes interessadas devem examinar e encaminhar antes de aprovar uma nova lei. Os mais relevantes são: 

  • Neutralizar os riscos de abuso de regulações baseadas em conteúdo, abandonando as obrigações de dever de cuidado, privilegiando avaliações de impacto sistêmico e explicitando que a atuação diligente das plataformas não significa monitoramento e filtragem geral de conteúdos dos usuários.
  • Garantir freios, contrapesos e garantias de devido processo robustos para a aplicação de regras específicas a situações de conflito e risco iminente.
  • Conceber de forma criteriosa e garantir os meios apropriados para estabelecer uma estrutura adequada de supervisão independente, autônoma, participativa e multissetorial para a regulação em debate.
  • Estabelecer garantias claras contra o aumento da vigilância e os riscos de segurança relacionados. 
  • Abster-se de conceder proteções especiais a declarações de autoridades estatais, que têm responsabilidades especiais conforme padrões internacionais de direitos humanos. 
  • Garantir sanções de acordo com padrões de direitos humanos e garantias de devido processo legal, particularmente quando isso envolver o bloqueio de aplicações online.

O último ponto se refere às sanções administrativas que podem ser aplicadas caso os provedores de aplicação sujeitos ao projeto de lei descumpram as suas regras. A “suspensão temporária das atividades” está entre as sanções possíveis. Na prática, isso significa que uma autoridade governamental administrativa teria o poder de bloquear um site ou aplicativo por inteiro. De forma geral, o bloqueio de websites no Brasil acontece após uma ordem judicial, embora o Ministério da Justiça tenha afirmado recentemente que órgãos administrativos de proteção do consumidor teriam esses poderes de acordo com as penas de suspensão tradicionais definidas no Código de Defesa do Consumidor. Padrões internacionais de direitos humanos  apontam que o bloqueio de sites e aplicativos inteiros é uma medida extrema com desafios técnicos, grandes riscos de abuso e impactos significativos em direitos fundamentais. Em 2021, o Conselho de Direitos Humanos da ONU reiterou a adoção de uma resolução condenando inequivocamente o recurso à interrupção do acesso à Internet e medidas de censura online, o que inclui o bloqueio a mídias sociais, para arbitrariamente impedir ou prejudicar o acesso ou a disseminação de informações online. Destacamos anteriormente tais preocupações no contexto do PL 2630. Enquanto nas versões anteriores do PL apenas a maioria absoluta de um órgão judicial colegiado poderia aplicar tal sanção de bloqueio, a proposta atual dá esse poder a uma autoridade administrativa não especificada. Os legisladores brasileiros devem reconhecer os perigos do uso arbitrário de bloqueios online e recuar.

Além disso, a aplicação legítima de possíveis sanções se relaciona diretamente ao conjunto de regras e à estrutura de supervisão do projeto de lei. Os outros pontos de preocupação que mencionamos acima destacam lacunas remanescentes relevantes nesta frente. Eles serão discutidos na próxima seção.

De 2011 a 2023: Lidar com os desafios atuais a partir de princípios e garantias existentes

Desde a declaração conjunta de 2011 sobre Liberdade de Expressão e Internet dos Relatores Especiais para a Liberdade de Expressão, as instituições de direitos humanos vêm ressaltando que as iniciativas governamentais que buscam regular as comunicações online devem preservar e se adaptar às características únicas da Internet. Isso porque tais iniciativas devem ao mesmo tempo ser eficazes e respeitar as características da Internet que potencializam o exercício de direitos e liberdades fundamentais. Quaisquer restrições devem seguir o “teste de três partes”, ou seja, devem ser claramente estabelecidas por lei, estritamente necessárias e proporcionais para alcançar um objetivo legítimo em uma sociedade democrática. Preocupações importantes em torno da fragmentação da Internet, censura colateral, remoção excessiva de expressão legítima e, mais recentemente, complexidades inerentes à moderação de conteúdo em escala, levaram especialistas ao longo dos anos a evitar regulações específicas de conteúdo. Os riscos de aplicação e interpretação arbitrárias de regras que restringem conteúdos em contextos não democráticos ou conflituosos adicionam outras camadas a esse conjunto de preocupações.

A seguir, nos itens abaixo, detalhamos os nossos demais pontos de atenção (ou leia o PDF completo aqui).

Obrigações de dever de cuidado preocupantes

Repelir regras e interpretações que possam levar a obrigações de monitoramento de conteúdo

Freios, contrapesos e garantias de devido processo robustos para a aplicação de medidas excepcionais em situações de crise

Estrutura de supervisão independente e participativa

Garantias claras contra o aumento da vigilância e dos riscos de segurança relacionados

Rever a problemática imunidade de autoridades públicas

Conclusão

Quaisquer leis e regulações que busquem fortalecer os direitos de usuárias e usuários frente a aplicações de internet dominantes devem se guiar por esses princípios e garantias, em vez de descartá-los. Não podemos oferecer respostas aos desafios decorrentes da inter-relação constante, mas em contínua mudança, entre as tecnologias digitais e a sociedade, se em cada etapa desse caminho desconsiderarmos bases relevantes já estabelecidas, fundadas em padrões internacionais de direitos humanos. Empoderar usuárias e usuários perante o enorme poder corporativo das plataformas de internet envolve ainda medidas mais estruturais e econômicas, que estão em grande medida negligenciadas no debate atual, como promover a interoperabilidade das redes sociais. Esperamos que as preocupações e princípios que articulamos aqui possam contribuir para o debate atualmente em curso no Brasil.