Relatório Anual 2023 mostra o impacto do Comitê na Meta

O ano de 2023 marcou um período significativo de impacto e inovação para o Comitê. Nossas recomendações continuaram a melhorar a experiência das pessoas nas plataformas da Meta e, ao publicar mais decisões em novos formatos, enfrentamos desafios cada vez mais complexos na moderação de conteúdo.

A implementação de nossas recomendações pela Meta também está ganhando impulso. Em nosso Relatório Anual de 2023, observamos que desde janeiro de 2021, quando nossas primeiras decisões foram divulgadas, até maio de 2024, quando concluímos este relatório, a Meta conseguiu implementar completa ou parcialmente 75 das recomendações que fizemos, enquanto relatava progresso na implementação de outras 81. Entendemos que os números são apenas uma parte da história; o que realmente importa é a qualidade e o impacto das recomendações.

Informar os resultados para usuários do Facebook e Instagram

Uma questão recorrente é a incerteza dos usuários sobre os motivos pelos quais a Meta remove conteúdo ou suspende contas.

Para resolver isso, recomendamos à Meta que adote os seguintes princípios de transparência: tornar suas regras mais acessíveis, explicar como são aplicadas e, ao sancionar usuários por violá-las, detalhar exatamente quais regras foram infringidas.

Em 2022, em resposta às nossas recomendações, a Meta implementou novas mensagens que informam as pessoas sobre a política específica que violaram nas políticas sobre Discurso de Ódio, Indivíduos e Organizações Perigosas e Bullying e Assédio.

Em 2023, nossas recomendações continuaram a aprimorar as experiências das pessoas no Facebook e no Instagram.

O Relatório Anual de hoje mostra como, em resposta às recomendações do Comitê, a Meta:   

  • Lançou o Status da Conta, uma experiência no produto que fornece informações sobre as penalidades presentes e passadas na conta de um usuário, incluindo os motivos pelos quais foram aplicadas pela Meta.
  • Melhorou o sistema de greves para explicar por que o conteúdo de um usuário foi removido e como o sistema funciona, buscando maior equidade para usuários que foram afetados de maneira desproporcional anteriormente.
  • Começou a alertar as pessoas quando a publicação tinha alta probabilidade de violar as regras, para que pudessem excluir e publicar o conteúdo novamente. Em um período de 12 semanas em 2023, a Meta emitiu avisos sobre mais de 100 milhões de conteúdos.*

Estendemos esse progresso até 2024, com nossas recomendações melhorando a maneira como a Meta trata os usuários de suas plataformas.   

Muitos usuários nos relatam que a Meta removeu publicações que denunciavam discurso de ódio, seja para condená-lo, ridicularizá-lo ou gerar conscientização sobre ele, devido à incapacidade dos sistemas automatizados (e às vezes dos revisores humanos) de distinguir essas publicações do próprio discurso de ódio. Para resolver isso, solicitamos que a Meta criasse um processo simples para os usuários indicarem durante a apelação que a publicação se encaixa nessas categorias.  A Meta concordou com essa iniciativa, e agora estamos divulgando novos dados sobre o impacto.

  • Em fevereiro de 2024, a Meta recebeu mais de 7 milhões de apelações de usuários cujo conteúdo foi removido de acordo com suas políticas de discurso de ódio. 80% dos participantes escolheram usar essa nova opção para fornecer contexto adicional. Um em cada cinco desses usuários indicou que o objetivo do conteúdo era “aumentar a conscientização”, enquanto um em cada três afirmou que “era uma piada”. Acreditamos que dar voz às pessoas — e escutá-las — pode ajudar a Meta a tomar decisões mais informadas.*
  • Em maio de 2024, em decorrência das recomendações que fizemos, a Meta iniciou um processo de identificação mais abrangente de conteúdos em vídeo, áudio e imagem como sendo “produzidos com IA”. Essa medida visa oferecer maior contexto e transparência aos usuários em relação a diferentes tipos de mídia manipulada, enquanto também remove publicações que infringem outras políticas da Meta. 

Proteção e preservação do discurso

Nossas recomendações também ajudaram a Meta a proteger e preservar conteúdo sobre protestos, condições de saúde e atrocidades durante conflitos.

Nosso Relatório Anual de 2023 mostra como, em resposta às recomendações do Comitê, a Meta:

  • Permitiu que o termo “Marg bar Khamenei” (cuja tradução literal é “Morte ao [líder supremo do Irã] Khamenei”) fosse compartilhado no contexto dos protestos no Irã. Após a implementação dessa recomendação pela Meta em janeiro de 2023, uma análise de contas no Instagram revelou que o uso desse termo cresceu quase 30%, protegendo assim o discurso político no Irã.  
  • Atualizou e criou novos classificadores que, em dois períodos de 30 dias em 2023, evitaram a remoção automática de um total de 3.500 conteúdos relacionados ao câncer de mama. Isso protege conteúdo importante de pacientes com câncer de mama e ativistas.
  • Está finalizando uma abordagem nova e consistente para preservar possíveis evidências de atrocidades e sérias violações das Normas Internacionais de Direitos Humanos e Leis Humanitárias.   

Publicar mais casos com mais rapidez

O ano de 2023 marcou um período significativo de inovação. Como parte de nosso compromisso de publicar mais casos e mais rapidamente, emitimos nossas primeiras decisões resumidas que examinam casos nos quais a Meta alterou a decisão inicial sobre um conteúdo após ele ter sido selecionado para possível revisão. Também emitimos as nossas primeiras decisões rápidas sobre o conflito entre Israel e Hamas.

Além disso, publicamos decisões padrão em novas áreas, incluindo prisioneiros de guerra, dietas extremas e discursos violentos direcionados a pessoas transgênero. Ao longo de 2023, decidimos 53 casos em 2023, mais do que em qualquer ano anterior, derrubando a decisão original da Meta em cerca de 90% dos casos.  

Com 47 casos decididos ou anunciados até o momento em 2024, estamos progredindo para superar o total do ano passado. Esses casos incluem tópicos importantes de moderação de conteúdo, como deepfakes explícitos gerados por IA, negação do Holocausto e críticas a chefes de Estado.

Em fevereiro, também ampliamos nosso escopo para incluir o Threads, marcando a primeira vez que integramos um novo aplicativo, e divulgamos nosso primeiro caso relacionado ao Threads em maio. Além disso, notamos um aumento significativo no engajamento com nosso trabalho, com 2.800 comentários públicos enviados para casos publicados ou anunciados este ano, aproximadamente o dobro do número recebido em 2022 e 2023 juntos.   

Evoluir para expandir nossa influência

Embora tenhamos feito progressos significativos, também estamos inovando para nos mantermos relevantes nos principais debates sobre moderação de conteúdo. Em 2024, por exemplo, estamos publicando documentos técnicos que exploram questões abrangentes enfrentadas pelas redes sociais com base em insights derivados de nosso trabalho global, em vez de focar apenas casos específicos.

Com aproximadamente metade da população mundial indo às urnas este ano, emitimos nosso primeiro documento técnico sobre eleições, que destaca nove lições essenciais para o setor. Nas próximas semanas, publicaremos nosso próximo documento técnico sobre IA e automação.

À medida que avançamos em 2024, pretendemos explorar outras questões importantes para os usuários, como conteúdo rebaixado. Além disso, estamos atentos à evolução do panorama regulatório e ao papel crucial do Comitê: ser um órgão deliberativo global e independente, dedicado à análise de casos com base nos direitos humanos.

Recentemente, como parte de nossos esforços contínuos para aprimorar a experiência dos usuários, colaboramos com a Meta para tornar nosso processo de apelação mais intuitivo. Além disso, após o lançamento do nosso site em maio, estamos implementando mudanças em nossos relatórios de transparência. Nosso novo site agora inclui grande parte do conteúdo que publicamos em nossos relatórios de transparência trimestrais e, mais recentemente, semestrais, incluindo um rastreador interativo para nossas recomendações, um arquivo de comentários públicos e a capacidade de filtrar decisões por país, região e padrão da comunidade. Portanto, embora continuemos a publicar Relatórios Anuais, não mais emitiremos relatórios semestrais.

Após quatro anos de nossa jornada, ainda estamos lidando com os desafios mais complexos da moderação de conteúdo e continuamos a incentivar a Meta a tratar os usuários de maneira justa. O desafio é enorme e a incerteza é grande, mas o trabalho que estamos realizando é fundamental e impactante. Unidos, trabalharemos para encontrar soluções que melhorem as plataformas de mídia social para as pessoas no mundo todo.

Para saber mais sobre nossos Relatórios de Transparência, clique aqui.

* OBSERVAÇÃO: Todas as informações são tratadas de forma agregada e anônima para garantir a privacidade do usuário. Todas as métricas são estimativas atualizadas com as melhores informações disponíveis em um momento específico.

Voltar às Notícias