inicia sesión o regístrate.
La reciente decisión de Meta de modificar su forma de verificar contenidos de sus plataformas, Facebook, Instagram y Whatsapp, y seguir un modelo similar al implementado por X (antiguamente Twitter), plantea una discusión crucial sobre los límites y responsabilidades de las plataformas digitales en materia de libertad de expresión. Este cambio, refleja una preocupación creciente sobre el papel que estas compañías deberían desempeñar contra la desinformación, discursos de odio y noticias falsas.
Contexto: hacia un paradigma de autorregulación. Desde la llegada de Elon Musk a X, la plataforma ha visto una reducción significativa en sus mecanismos de moderación, sustituyendo sistemas de verificación robustos por herramientas basadas en la participación de los usuarios. Aunque esta estrategia promueve una aparente democratización del control del contenido, también genera preocupaciones sobre la capacidad real de las comunidades digitales para manejar de manera efectiva la desinformación, el discurso de odio y las noticias falsas.
¿La libertad de expresión es un derecho absoluto?
Mark Zuckerberg, en una entrevista con el podcaster más famoso de Estados Unidos, Joe Rogan, defendió el cambio argumentando que Meta no puede ser "árbitro de la verdad", situación a la que alude se vio obligado a estar sometido en la administración de Joe Biden, y que obviamente espera sea modificada por el flamante gobierno de Donald Trump.
Sin embargo, es fundamental preguntarse si una amplia interpretación de la libertad de expresión equivale a eximir a las plataformas de sus responsabilidades como actores clave en la configuración del debate público. En un mundo hiperconectado, las redes sociales han evolucionado más allá de simples herramientas de comunicación; son espacios donde la información -y su manipulación- puede influir en decisiones políticas, elecciones democráticas y hasta en la salud pública, tal como se vio durante la pandemia de COVID-19, en la que el discurso "antivacuna" era un tema susceptible de ser censurado.
Notas comunitarias: ¿una solución efectiva? El modelo de notas comunitarias que propone Meta, ya implementado por X, consiste en evitar una moderación de contenidos por los propios empleados de las plataformas, para dar paso a la participación de los usuarios en el control del contenido, lo cual supone que la comunidad tiene la capacidad, el conocimiento y la motivación necesaria para identificar información falsa o engañosa. Advertimos en esa suposición una posible falacia, y es que estos mecanismos pueden ser vulnerables a la formación de "burbujas de información", en las que los usuarios solo confirman sus propios sesgos sin llegar a un consenso informado. A ello, asimismo, podría contraargumentarse que un empleado de la plataforma también podría perfectamente ser vulnerable a dichas manipulaciones en el manejo de la información, con lo que la solución propuesta no es mejor ni peor que la anterior para la comunidad.
Repercusiones jurídicas
Desde un punto de vista legal, la transición hacia modelos de autorregulación nacional podría entrar en conflicto con normativas que buscan responsabilizar a las plataformas por los contenidos que alojan. En la Unión Europea, se imponen estrictas obligaciones a las compañías tecnológicas para combatir la desinformación y la protección de los datos de sus usuarios, por lo que, si se adopta un enfoque tan desregulado como el que comentamos, podría enfrentarse a sanciones importantes en mercados clave.
Cabe destacar que, en nuestro país, no existen normas generales expresas de responsabilidad civil que establezcan a las plataformas obligaciones de monitoreo, sea de manera previa ni posterior a las publicaciones de contenidos, más allá de que algunos fallos claves de la Corte Suprema (vgr. Da Cunha, Rodriguez, De Negri) hubieron de proveer algunos lineamientos, pero sólo en relación a la responsabilidad de los buscadores, por lo que la situación no afecta demasiado en lo que refiere a posibles incumplimientos normativos y sanciones administrativas. No obstante, nuestro país como un mercado pequeño, debe adaptarse a las nuevas pautas globales, generando ello nuevas discusiones no sólo respecto de la necesidad de regulación sino también a la situación de inseguridad jurídica que emerge en un tema tan árido y con tantos vaivenes como la libertad de expresión.
Los usuarios y las plataformas
El debate también interpela a los usuarios, quienes deben asumir un rol activo y crítico en la interpretación de la información que consumen y comparten. Sin embargo, delegar exclusivamente en la comunidad la responsabilidad de verificar la información parece una estrategia insuficiente frente a la escala de los desafíos actuales.
En el caso de Meta, lo que parecería ser una simple política corporativa, en rigor, se trata de un debate más amplio que incluye la regulación de la libertad de expresión a escala global. En este contexto, es esencial que tanto las plataformas como los reguladores y la sociedad civil trabajen juntos para encontrar un equilibrio que priorice la información de calidad y la protección de los derechos fundamentales.
El futuro del debate mencionado dependerá de cómo podamos navegar estos vientos de cambio, asegurándonos de que la libertad de expresión no se convierta en una excusa para la irresponsabilidad, y que la moderación no implique censura. La conversación recién comienza, y el papel de Meta en este debate será observado con atención por usuarios, gobiernos y expertos en tecnología de todo el mundo.