** Esta postagem é parte de artigo mais extenso sobre o debate brasileiro de regulação de plataformas. Clique aqui para acessar o conteúdo completo.

A evolução das versões do PL 2630 foi uma expressão da opção por uma abordagem baseada em processos, em vez de uma focada em conteúdo, no âmbito de uma iniciativa de regulação com o objetivo de promover maiores compromissos das plataformas online. No entanto, após alterações no início deste ano, o projeto de lei agora contém uma lista de práticas ilícitas, ligadas a conteúdos ilícitos, que as aplicações de internet “devem atuar diligentemente para prevenir e mitigar (…), envidando esforços para aprimorar o combate à disseminação de conteúdos ilegais gerados por terceiros”. Tal previsão diz respeito às obrigações de dever de cuidado, que o projeto de lei não define, porém, ainda assim, operacionaliza sua aplicação. A lista de tais práticas ilícitas, prevista no artigo 11, aponta para disposições em seis leis diferentes que abarcam cerca de 40 infrações penais – cada uma contendo um conjunto de elementos que devem estar presentes para que a conduta seja ilegal. Algumas infrações também têm causas que excluem certas condutas de serem a base de um crime. Por exemplo, tanto a Lei Antiterrorismo (Lei nº 13.260/2016) quanto os crimes contra o Estado Democrático de Direito estabelecidos no Código Penal não se aplicam a manifestações políticas críticas baseadas em direitos constitucionais. De acordo com o artigo 11 do PL, caberia à aplicação de internet considerar todos esses elementos e avaliar se a conduta ou o conteúdo visível através de suas plataformas constituem uma atividade criminosa.

Em alguns casos, é ainda mais difícil entender o que exatamente o provedor de aplicações deve verificar, ou se é algo que ele realmente deve verificar, apesar de sua inclusão na lista de infrações penais do artigo 11. Por exemplo, o artigo 11 se refere genericamente aos crimes contra crianças e adolescentes da Lei nº 8.069/1990. Entre esses crimes está a falha do médico, enfermeiro ou dirigente de estabelecimento de saúde em identificar corretamente o  recém-nascido e a mãe parturiente no momento do parto (artigo 229 da Lei nº 8069/1990). Qual é o dever de cuidado esperado das plataformas de internet aqui? Esta regra é um exemplo de uma disposição abrangida pelo artigo 11 que não parece ter qualquer relação com as plataformas online. O artigo 11 também não é muito claro sobre como e quais instituições avaliarão o cumprimento das obrigações de dever de cuidado por parte das aplicações de internet. Ele afirma que a avaliação de cumprimento não focará em casos isolados e incluirá informações que as aplicações de internet fornecerão às autoridades sobre seus esforços para prevenir e mitigar as práticas listadas, bem como a análise dos relatórios da plataforma e como respondem a notificações e reclamações.

Dentro do mesmo PL, o artigo 45 estipula que “quando o provedor tomar conhecimento de informações que levantem suspeitas de que ocorreu ou que possa ocorrer um crime que envolva ameaça à vida, ele deverá informar imediatamente da sua suspeita às autoridades competentes”. Embora um crime envolvendo uma ameaça à vida seja definitivamente uma emergência e uma situação terrível, o artigo 45 estabelece um novo papel de policiamento para aplicações de internet que, mesmo dentro desse escopo estrito, podem dar margem a resultados controversos, potencialmente afetando, por exemplo, mulheres no Brasil que buscam informações online sobre aborto seguro.

As obrigações de dever de cuidado estabelecidas no PL 2630 se sustentam em uma abordagem regulatória que reforça as plataformas digitais como pontos de controle sobre a expressão e as ações online das pessoas. Elas exigem que as aplicações de internet ajam como juízes quanto à legalidade de atos ou conteúdos com base em uma lista de delitos criminais complexos, como se fosse simples programar ferramentas e processos de moderação de conteúdo para reconhecer cada elemento que constitui cada delito. Pelo contrário, estas análises são com frequência desafiadoras até mesmo para juízes e tribunais. Em muitos casos, pessoas divulgam conteúdo sensível precisamente para denunciar a violência institucional, as violações de direitos humanos e a perpetração de crimes em situações de conflito. O compartilhamento de vídeos em redes sociais que expõem casos de discriminação contribui para responsabilizar os ofensores. Durante a onda de protestos no Chile, as plataformas de internet restringiram indevidamente conteúdo que denunciava a dura repressão policial às manifestações, por o terem considerado como conteúdo violento. No Brasil, vimos preocupações semelhantes, por exemplo, quando o Instagram censurou imagens do massacre da comunidade do Jacarezinho em 2021, que foi a operação policial mais letal na história do Rio de Janeiro. Em outras geografias, a missão de restringir o conteúdo extremista já removeu vídeos que documentavam violações de direitos humanos em contextos de conflito em países como Síria e Ucrânia.

Como a Relatoria Especial para a Liberdade de Expressão da Comissão Interamericana de Direitos Humanos (CIDH) destacou, enquanto atores privados, as aplicações de internet “não têm a capacidade de ponderar direitos e interpretar a lei em conformidade com os padrões em matéria de liberdade de expressão e outros direitos humanos”, particularmente quando deixar de restringir conteúdos específicos pode ocasionar sanções administrativas ou responsabilidade legal. 

Não é que as aplicações de internet não devam fazer esforços para evitar a prevalência de conteúdo pernicioso em suas plataformas, ou que não queremos que elas façam um trabalho melhor ao lidar com conteúdo capaz de causar sérios danos coletivos. Concordamos que elas podem fazer melhor, especialmente por meio da consideração da cultura e realidades locais. Também concordamos que suas políticas devem se alinhar a padrões internacionais de direitos humanos e que devem considerar os impactos potenciais de suas decisões em direitos humanos, de forma a prevenir e mitigar possíveis danos.

No entanto, não devemos misturar a garantia desses compromissos com o reforço das plataformas digitais como pontos de controle sobre a expressão e as ações online das pessoas. Este é um caminho perigoso considerando o poder que já está nas mãos das grandes plataformas e a crescente intermediação de tecnologias digitais em tudo o que fazemos. A abordagem do artigo 11 também é problemática na medida em que estabelece esse controle com base em uma lista de práticas potencialmente ilegais que a correlação de forças política pode mudar e expandir a qualquer momento ou levar a uma aplicação oportunista ou abusiva para restringir o acesso à informação e silenciar críticas ou vozes dissidentes.

Pelo contrário, compromissos de maior diligência e prestação de contas pelas plataformas priorizam uma abordagem sistêmica e baseada em processos pela qual o provedor de aplicações avalia e elabora respostas para prevenir e mitigar os impactos negativos de suas atividades aos direitos humanos. Isso é consistente com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos. O próprio PL 2630 contém disposições sobre avaliação de risco sistêmico e medidas de mitigação relacionadas às atividades das empresas. Os legisladores brasileiros devem priorizar essa abordagem em detrimento das obrigações relativas ao “dever de cuidado”.

Além disso, o conceito de dever de cuidado, como vemos atualmente no debate brasileiro, apresenta um outro risco. Ele pode ensejar interpretações de que as aplicações de internet devem realizar um monitoramento geral do conteúdo de terceiros que elas hospedam. Tais interpretações não são explicitamente negadas no texto do PL 2630, como são, por exemplo, na DSA da UE.