Patrocinado por:

Facebook experimentó con las emociones de 700.000 usuarios

La Voz AGENCIAS

OCIO@

DADO RUVIC

El estudio, realizado sin el conocimiento de los internautas, concluye ahora que la red social favorece a la transmisión de sentimientos sin necesidad de contacto personal

30 jun 2014 . Actualizado a las 16:05 h.

Facebook ha revelado que, durante una semana de enero de 2012, alteró su algoritmo de difusión de noticias para experimentar con las emociones de sus unos 700.000 usuarios anglófonos para un estudio de la Academia Nacional de las Ciencias de Estados Unidos. La indignación ha surgido entre los usuarios de la red social por motivo de la posible interferencia en la privacidad. Sin embargo, se esgrime que los usuarios han aceptado de manera tácita su «participación involuntaria» en esta clase de eventos al aprobar los términos de uso y servicio al conectarse a la web.

Durante una semana, del 11 al 18 de enero de 2012, la empresa y los investigadores modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos. En un mail enviado a la agencia AFP, la portavoz de Facebook, Isabel Hernández, aseguró que «la investigación se realizó solamente durante una semana y ningún dato utilizado estaba ligado a una persona en particular». «Realizamos investigaciones para mejorar nuestros servicios (...) y una gran parte consiste en comprender cómo responde la gente a diferentes contenidos positivos o negativos», prosiguió ya que «nosotros examinamos cuidadosamente los estudios que hacemos y tenemos un proceso interno de evaluación muy estricto».

Los expertos en recopilación de datos de Facebook analizaron más de 700.000 posts de los usuarios para descubrir que los estados emocionales se pueden comunicar entre personas sin necesidad de que interactúen en persona. Posteriormente, el equipo de expertos liderado por los doctores Adam Kramera, de Facebook; Jamie Guillory, de la Universidad de California y Jeffrey Hancock, de la Universidad de Cornell, estudiarios cerca de tres millones de comentarios y emplearon su propio código para caracterizar su lenguaje como positivo o negativo.

El estudio concluyó que una menor exposición a posts de contenido positivo en Facebook provoca una menor transmisión y comunicación de informaciones de esta índole, y viceversa. Es decir: la comunicación textual tiene un impacto determinante en la transmisión de emociones. «Las emociones expresadas en las redes sociales influyen en nuestro estado de ánimo», según las conclusiones del estudio, titulado Evidencias experimentales de contagio emocional a escala masiva a través de redes sociales. «Estos resultados indican que las emociones expresadas por otros a través de Facebook influyen en las nuestras y que, frente a las asunciones previamente establecidas, las interacciones no verbales no son estrictamente necesarias para el contagio emocional», según el estudio.

¿Respetuoso con la privacidad?

El estudio final asegura que «ha sido consistente con la Política de Uso de Datos de Facebook, que todos los usuarios aceptan a la hora de crear una cuenta» en la red social. Además, se subraya que todos los datos fueron analizados a través de un ordenador, reduciendo al mínimo la participación humana durante el procedimiento de observación de los posts.

El resultado de la investigación de Facebook, publicado el 17 de junio en la revista de la Academia Nacional de las Ciencias de Estados Unidos (PNAS), pasó inicialmente desapercibido en los principales medios de Estados Unidos. Sin embargo, tras los artículos publicados el sábado en Slate y en las web de The Atlantic y Forbes, surgió una corriente de indignación.

«Es sin duda legal pero ¿es ético?», se preguntaba The Atlantic en un artículo. Susan Fiske, de la Universidad de Princeton (editora de la PNAS), explicó a esta web que contactó con los autores del estudio para hacerles partícipes de la preocupación respecto a sus trabajos. Ellos le dijeron que los responsables de sus universidades habían aprobado estos trabajos «porque Facebook, al parecer, manipula sistemáticamente el contenido de las informaciones difundidas». Requerida por la AFP, Fiske reconoció que las cuestiones éticas levantadas por este estudio «tocaron sin lugar a dudas una fibra sensible».

«Pero creo que es Facebook el que debe aportar una respuesta al desasosiego» de sus usuarios. Algunos internautas expresaron su «profunda pena» y describieron el método utilizado como «alarmante» o «demoníaco». «Facebook ha manejado su "suministro de noticias" para un experimento psicológico. Llegó el momento de cerrar tu cuenta de Facebook», se irritó un usuario en Twitter.