En el Informe anual de 2023, se muestra el impacto del Consejo en Meta

El 2023 fue un año de impacto e innovación para el Consejo. Nuestras recomendaciones siguieron mejorando la experiencia de las personas en las plataformas de Meta y, mediante la publicación de más decisiones en nuevos formatos, abordamos más preguntas difíciles que nunca sobre la moderación de contenido.

La implementación de nuestras recomendaciones por parte de Meta también está cobrando impulso. En nuestro Informe anual de 2023, se muestra que entre enero de 2021, cuando publicamos nuestras primeras decisiones, y mayo de 2024, cuando finalizó este informe, Meta implementó de forma total o parcial 75 de nuestras recomendaciones, e informó el avance en la implementación de otras 81. Las cifras, por supuesto, no lo dicen todo; lo que importa es la calidad y el impacto de las recomendaciones.

Obtención de resultados para los usuarios de Facebook e Instagram

Un problema constante es que a menudo los usuarios se quedan sin saber por qué Meta eliminó su contenido o suspendió su cuenta.

Para abordar esta cuestión, instamos a Meta a seguir estos principios de transparencia: hacer reglas que sean fáciles de entender y explicar a las personas cómo se las hace cumplir y, cuando alguien infrinja las reglas, decirle exactamente qué es lo que ha hecho mal.

En 2022, en respuesta a nuestras recomendaciones, Meta introdujo una nueva mensajería que indica a las personas la política específica que infringieron respecto de sus políticas de lenguaje que incita al odio, personas y organizaciones peligrosas, y bullying y acoso.

En 2023, nuestras recomendaciones siguieron mejorando la experiencia de las personas en Facebook e Instagram.

En el Informe anual de hoy, se muestra cómo, en respuesta a las recomendaciones del Consejo, Meta hizo lo siguiente:   

  • Lanzó la sección Estado de cuenta, una experiencia en el producto que informa a las personas sobre las sanciones actuales o anteriores aplicadas a sus cuentas, y el motivo por el que Meta aplicó dichas sanciones.
  • Mejoró su sistema de faltas para explicar por qué se eliminó el contenido de una persona y cómo funciona el sistema, además de hacerlo más justo para los usuarios que se han visto afectados de forma desproporcionada en el pasado.
  • Comenzó a advertir a las personas si sus publicaciones podían generar infracciones, dándoles la oportunidad de borrar y publicar su contenido de nuevo. En un periodo de 12 semanas en 2023, Meta envió alertas sobre más de 100 millones fragmentos de contenido.*

En 2024, hemos conservado este impulso, con nuestras recomendaciones para mejorar aún más la forma en que Meta trata a las personas que usan sus plataformas.   

A menudo, las personas nos dicen que Meta eliminó publicaciones que llamaban la atención sobre lenguaje que incita al odio con fines de condena, burlas o concientización debido a la incapacidad de los sistemas automatizados (y a veces de quienes realizan revisiones manuales) para distinguir entre dichas publicaciones y el lenguaje que incita al odio en sí. Para abordar esta cuestión, le pedimos a Meta que cree una forma cómoda para que los usuarios indiquen en sus apelaciones que sus publicaciones se clasificaron en una de estas categorías.  Meta estuvo de acuerdo y hoy estamos publicando nuevos datos sobre su impacto.

  • En febrero de 2024, Meta recibió más de siete millones de apelaciones de personas cuyo contenido había sido eliminado en función de sus reglas sobre el lenguaje que incita al odio. Ocho de cada 10 de los que apelaron optaron por utilizar esta nueva opción para proporcionar contexto adicional. Uno de cada cinco de estos usuarios indicó que su contenido era para "crear conciencia", mientras que uno de cada tres optó por "era una broma". Creemos que darle voz a las personas, y escucharlas, puede ayudar a Meta a tomar mejores decisiones.*
  • En mayo de 2024, en respuesta a nuestras recomendaciones, Meta comenzó a etiquetar una gama más amplia de contenido de video, audio e imagen como "hecho con IA". Con esto, las personas obtendrán un mayor nivel de contexto y transparencia para más tipos de contenido multimedia manipulado, mientras que también se eliminan las publicaciones que infringen las reglas de Meta de otras maneras. 

Protección y preservación del discurso

Nuestras recomendaciones también ayudaron a Meta a proteger y preservar el contenido sobre protestas, problemas de salud y atrocidades durante conflictos.

En nuestro Informe anual de 2023, se muestra cómo, en respuesta a las recomendaciones del Consejo, Meta hizo lo siguiente:

  • Permitió el término "Marg bar Khamenei" (que literalmente se traduce como "muerte a Khamenei [líder supremo de Irán]") para que se compartiera en el contexto de las protestas en Irán. Después de que Meta implementara esta recomendación en enero de 2023, una muestra de cuentas en Instagram mostró que las publicaciones con este término aumentaron casi un 30 %, protegiendo el discurso político en Irán.  
  • Actualizó y creó nuevos clasificadores, que en el transcurso de dos periodos de 30 días en 2023, evitaron la eliminación automática de un total de 3500 contenidos relacionados con el cáncer de mama. Se trata de proteger contenidos importantes de activistas y pacientes con cáncer de mama.
  • Está ultimando un enfoque nuevo y coherente para preservar posibles pruebas de atrocidades e infracciones graves de la legislación internacional sobre derechos humanos y sobre derechos humanitarios.   

Publicación de más casos, con mayor rapidez

El 2023 también fue un año de innovación. Fieles a nuestro compromiso de publicar más casos, con mayor rapidez, emitimos nuestras primeras decisiones sumarias que examinan casos en los que Meta cambió su decisión original sobre un contenido después de haberlo seleccionado para una posible revisión. También emitimos nuestras primeras decisiones expeditas sobre el conflicto entre Israel y Hamás.

Además, publicamos decisiones estándar en nuevas áreas, tales como prisioneros de guerra, dietas extremas y lenguaje que incita la violencia contra las personas transexuales. En total, en 2023 tomamos decisiones en 53 casos, más que en cualquier otro año, anulando la decisión original de Meta en aproximadamente el 90 % de los casos.  

Con 47 casos dictaminados o anunciados hasta ahora en 2024, vamos camino de superar el total del año pasado. Entre estos casos se incluyen temas cruciales de moderación de contenido, como medios sintéticos explícitos generados por IA, la negación del Holocausto y críticas a jefes de Estado.

En febrero, también ampliamos nuestro ámbito de actuación a Threads, la primera vez que nos encargamos de una aplicación nueva, y anunciamos nuestro primer caso de Threads en mayo. También hemos observado un mayor compromiso con nuestra labor, con el envío de 2800 comentarios públicos sobre casos publicados o anunciados este año, casi el doble de los que recibimos en 2022 y 2023 juntos.   

Evolución para ampliar nuestra influencia

Aunque hemos recorrido un largo camino, también innovamos para lograr una mayor presencia en los grandes debates sobre la moderación de contenido. En 2024, por ejemplo, publicamos informes oficiales en los que se examinan cuestiones generales de las redes sociales en base a la experiencia adquirida en todo nuestro trabajo, y no solo en casos concretos.

Ya que este año cerca de la mitad de la población mundial acudirá a las urnas, emitimos nuestro primer informe oficial sobre las elecciones con nueve lecciones clave para la industria. En las próximas semanas, publicaremos nuestro siguiente informe oficial sobre IA y automatización.

A medida que nos adentramos en 2024, queremos examinar otros asuntos importantes para los usuarios, como el contenido degradado. También estamos poniendo atención al panorama normativo conforme va evolucionando y a la importancia del modelo del Consejo, perteneciente a un órgano deliberativo global e independiente que examina los casos desde el punto de vista de los derechos humanos.

Hace poco, como parte de nuestros esfuerzos continuos para mejorar la experiencia de los usuarios, trabajamos con Meta para que nuestro proceso de apelación sea más intuitivo. Además, con el lanzamiento de nuestro nuevo sitio web en mayo, estamos realizando cambios en nuestros informes de transparencia. Ahora, en nuestro nuevo sitio web se incluye gran parte del contenido que publicamos en nuestros informes de transparencia trimestrales, y más recientemente semestrales, como un rastreador interactivo para nuestras recomendaciones, un archivo de comentarios públicos y la función de filtrar las decisiones por país, región y norma comunitaria. Por lo tanto, a medida que sigamos publicando informes anuales, dejaremos de publicar informes semestrales.

Tras cuatro años en este camino, seguimos abordando algunas de las cuestiones más difíciles en cuanto a la moderación de contenido y obligando a Meta a que trate a los usuarios de manera justa. El desafío es enorme y la incertidumbre es grande, pero el trabajo que estamos haciendo es muy importante. Juntos nos esforzaremos para encontrar las respuestas que permitan mejorar las redes sociales para las personas de todo el mundo.

Para conocer más sobre nuestros informes de transparencia, haga clic aquí.

* SE DEBE TENER EN CUENTA LO SIGUIENTE: Toda la información es agregada y anonimizada para proteger la privacidad del usuario. Todos los parámetros son cálculos aproximados basados en la mejor información disponible correspondiente a un momento específico.

Volver a Noticias