¿Quieres recibir notificaciones de alertas?

22°
19 de Abril,  Salta, Centro, Argentina
PUBLICIDAD

De fotos con pezones a la suspensión a Trump: cómo Facebook e Instagram moderan contenidos

Más de un millón de apelaciones recibió el Consejo Asesor de Contenido, independiente del grupo Meta, por parte de usuarios que buscaban una revisión sobre la decisión que esas redes tomaron en la eliminación o restricción de sus contenidos. En un informe, se publicó cómo se resolvieron los primeros 20 casos.  
Jueves, 23 de junio de 2022 17:59

Una persona en Brasil publica en Instagram en 2020 una imagen donde se ven los pechos de una mujer como parte de una campaña para concientizar sobre el cáncer de mama, pero la red social la elimina por "desnudo". Dos años después, Donald Trump postea un video durante la toma del Capitolio en Washington con la frase "los queremos", en supuesta referencia a los  vándalos, y Facebook le suspende de forma indefinida la cuenta de sus plataformas por el riesgo de que su presencia fomente una "escalada de violencia".

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

Una persona en Brasil publica en Instagram en 2020 una imagen donde se ven los pechos de una mujer como parte de una campaña para concientizar sobre el cáncer de mama, pero la red social la elimina por "desnudo". Dos años después, Donald Trump postea un video durante la toma del Capitolio en Washington con la frase "los queremos", en supuesta referencia a los  vándalos, y Facebook le suspende de forma indefinida la cuenta de sus plataformas por el riesgo de que su presencia fomente una "escalada de violencia".

Estas decisiones, junto a más de un "un millón de apelaciones", fueron revisadas por el Consejo Asesor de Contenidos, un organismo creado por Meta (la corporación de la que dependen Facebook, Instagram y Whatsapp, entre otras empresas) que cuenta con independencia de Mark Zuckerberg. Esta semana, el Consejo reveló su primer informe sobre cómo se resolvieron 20 casos de contenidos eliminados o restringidos en Facebook e Instagram. 

Un organismo que se fundó en 2018 bajo una idea: “Las empresas de redes sociales no tienen que tomar por sí mismas decisiones relacionadas con la moderación de contenidos”.

También fue parte de una propuesta que la propia Meta presentó en noviembre de 2018, bajo la cual "permitía a las personas recurrir las decisiones relacionadas con contenidos a un órgano independiente y cuyas decisiones fuesen vinculantes".

En su plan de ación, este Consejo no solo revierte las decisiones de Meta cuando así lo estima necesario, sino que también recomienda cambios de políticas que "mejoran el tratamiento que reciben los usuarios y que proporcionan mayor transparencia".

La protección de la libertad de expresión y de otros derechos humanos, la consideración del contexto y el tratamiento imparcial a los usuarios con independencia del lugar en el que se encuentren, son algunos de los principios en los que se basa para tomar decisiones. 

 

 

El primer informe del Consejo

Entre octubre de 2020 y diciembre de 2021, el Consejo recibió más de un millón de solicitudes de usuarios sobre la "revisión independiente" de decisiones de Meta sobre moderación de contenidos. Un promedio de 2.649 casos diarios. 

Además, el mismo Meta le remitió 47 casos. En promedio, 8 de cada 10 usuarios apeló a la restauración de contenidos en relación con las reglas de esas redes sobre bullying, lenguaje que incita al odio o violencia e incitación.

El Consejo tuvo en cuenta más de 10.000 comentarios de personas y organizaciones de todo el mundo para la toma de decisiones, y emitió a Meta 86 recomendaciones, de las cuales ese grupo acreditó la realización de progresos o la implementación de las recomendaciones. 

En el informe se detallaron las primeras 20 decisiones completas, sobre las que Meta se retractó en 14 ocasiones y se ratificó en 6 ocasiones.

Además de enfocarse en los contenidos de esas redes, el Consejo ya planifica su rol en la moderación de contenidos en el incipiente metaverso que Meta está desarrollando, y por el que ya invirtió 10 mil millones de dólares. 

Con este trabajo, también busca brindar un "marco de referencia fidedigno para otras empresas de redes sociales, editores de plataformas, reguladores y responsables políticos del mundo que se enfrentan a las tensiones y los retos intrínsecos de la moderación de contenidos".

 


Meta tomó decisiones, pero el Consejo las revocó

Una de las decisiones tomadas por el Consejo "sentó un importante precedente al poner de relieve la incapacidad de los sistemas de cumplimiento de normas automatizados de Meta", según describió, para distinguir imágenes permitidas de pezones femeninos al descubierto en una campaña de concienciación contra el cáncer de mama.

En concreto, un usuario de Brasil publicó en octubre de 2020 una imagen en Instagram con un título en portugués cuyo objetivo era generar conciencia acerca del cáncer de mama. Pero un sistema automatizado encargado del cumplimiento de la norma de Facebook en cuanto a desnudos y actividad sexual de adultos eliminó la publicación (la norma también era aplicable a Instagram).

En este caso, el Consejo revocó la decisión de Meta porque la norma contempla, como excepción, la exhibición de desnudos en los casos en los que el usuario pretenda “concienciar acerca de una causa o con fines educativos o médicos“ y permite, de manera específica, la publicación de imágenes de pezones femeninos al descubierto para “incrementar la concienciación acerca del cáncer de mama”.

Temas de la nota

PUBLICIDAD
PUBLICIDAD
PUBLICIDAD

Temas de la nota

PUBLICIDAD