¿Quieres recibir notificaciones de alertas?

17 de Mayo,  Salta, Centro, Argentina
PUBLICIDAD

Facebook experimentó con 689.000 usuarios sin su consentimiento

Lunes, 30 de junio de 2014 20:30

Una semana de experimento y millones de comentarios, en su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su comportamiento alterando el algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía noticias positivas, el otro, negativas.

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

Una semana de experimento y millones de comentarios, en su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su comportamiento alterando el algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía noticias positivas, el otro, negativas.

La indignación ha surgido al conocerse la publicación del estudio en la web de la Academia Nacional de Ciencias de Estados Unidos. Para la prueba se tomaron, exclusivamente, perfiles que escriben en inglés. El rechazo a comentar o interaccionar con los contenidos de tinte negativo, demasiado emotivos o cercanos a la tristeza, era mucho más alto. En ocasiones hasta un 90% de lo habitual. El estudio concluye que sí, que el ánimo de los comentarios de los contactos de Facebook invita a seguir en la deriva negativa o positiva, según el grupo que les tocase, al cabo de una semana.

Este tipo de experimentos basados en interacción son muy comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin tener el cuenta el tinte del contenido. Se denomina A/B testing a mostrar una presentación (ya sea la distribución de la página o el estilo de los iconos) diferente bajo una misma web para poder estudiar si se emplea más tiempo en la misma, se hace más clic... pero nunca usando el tono del contenido como un componente más.

En un primer momento Facebook se limitó a decir que los posts, actualizaciones de estado, se podían consultar de manera habitual, sin matizar que la selección de una u otra opción (noticia positiva o negativa) con un fin experimental era dónde residía la ruptura de confianza con sus suscriptores. A última hora del domingo, a través del perfil de Adam Kramer, coautor del estudio y analista de datos dentro de la firma, se daba una explicación algo más concreta: “Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enfadar a nadie”.

En la explicación asegura que solo afectó al 0,04% de los usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de 2012. La red social ha contestado al diario británicoThe Guardian que su intención era mejorar el servicio para mostrar contenido más relevante y que crease una mayor cercanía con la audiencia.

En lo que no parecen reparar dentro de la web de Mark Zuckerberg es que el malestar se crea en el momento en que se rompe lo establecido, un algoritmo similar para todos, y se experimenta con las sensaciones de sus usuarios. Tampoco matiza que el conocimiento adquirido a partir de este experimento se pueda aplicar a la publicidad contratada en su interior.

En todo caso, queda la sensación de que gracias a la publicación del estudio se ha conocido este experimento, pero cualquiera podría ser objeto de muchos otros por parte de los analistas de datos de Facebook sin necesidad de avisar. Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para “operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.

Así manipuló Facebook las
emociones de sus usuarios


¿Conocen lo que significa contagio emocional masivo virtual? Facebook sí. La red social ya sabe mucho de lo que pensamos y hacemos (si estamos solteros o si tenemos pareja, si nos gustan loscupcakes o cuánta indiferencia nos genera el maltrato animal frente a otro tipo de carne de contenido viral) pero ahora resulta que también ha estado investigando cómo sentimos. No sólo para recoger datos y hacer negocio, sino para controlar cómo reaccionamos y nos relacionamos entre nosotros a través de los mensajes que posteamos en el negocio de Zuckerberg.

Todo ocurrió en una semana de 2012, Facebook estuvo sesgando losnewsfeeds –es decir, la línea de tiempo privada que nos suministra los estados y las actualizaciones de nuestros contactos– de casi 689.000 usuarios con el fin de demostrar que se pueden manipular nuestras emociones y sentimientos por contagio emocional a través de las redes sociales. El experimento, realizado por investigadores de la Universidad de Cornell (Nueva York) y California en colaboración con la dirección de la red social, se titula Experimental evidence of massive-scale emotional contagion through social networks y ya ha provocado un alud de críticas entre usuarios y medios por la falta de ética de su metodología, precisamente por haber alterado a propósito los datos de cuentas privadas sin haber notificado de ello, ocultando posts y filtrando contenido para analizar la conducta final de los usuarios.

Publicado a mediados de este mes en la decana revista Proceedings of the National Academy of Sciences, el estudio, en esencia, ha revelado que Facebook ya no es el reflejo virtual de nuestro mundo 2.0, seleccionado con precisión a lo largo de los años, sino que nuestra vida virtual es un mero espejismo, el resultado de un algoritmo calculado maquiavélicamente; un algoritmo tan sencillo como perverso que ya no pretende que se visualice más o menos un mensaje con intereses más o menos crematísticos, sino que éste nos alegre o, peor, nos deprima.

Durante el experimento se estudiaron unos 3 millones de posts que contenían unas 122 millones de palabras, de las que cuatro millones se clasificaron como positivas y 1,8 millones, negativas. El resto, se comprende que eran neutras. Todos esos posts fueron ocultados o sobreexpuestos a esos cientos de miles de usuarios para observar su reacción y concluir de qué forma el sentimiento que transmite una publicación en Facebook altera, en efecto, nuestro humor, y que a mayor disminución de posts negativos, más mensajes positivos, y al revés.

Fuente: elpais.com

PUBLICIDAD