AGENCIA MATERIA
En Facebook, bastan cien “me gusta” para saber si uno es de izquierdas o de derechas, si es cristiano o musulmán. Un grupo de investigadores ha diseñado un algoritmo por el que el inocente gesto de pinchar en el botón de la red social desvela también la orientación sexual, si se consumen drogas o hasta la inteligencia del usuario. Lo peor de todo es que todos los “me gusta” son públicos. Su trabajo muestra lo expuestos que están los más de 1.000 millones de usuarios de Facebook.
Un grupo de investigadores de la Universidad de Cambridge, en colaboración con el centro de Investigación que Microsoft tiene en la ciudad británica, han demostrado lo fácil que es saber datos personales especialmente protegidos y rasgos de la personalidad de los usuarios de Facebook. Analizando la popular opción que da la red social para mostrar que una publicación, fotografía, comentario nos gusta, se pueden adivinar muchas cosas que uno igual prefiere que no se sepan.
Con una base de datos de más de 58.000 usuarios estadounidenses de Facebook y unos 55.000 “me gusta” únicos, crearon una gigantesca matriz con más de 10 millones de resultados. Su algoritmo permitió diferenciar entre usuarios blancos y de raza negra en el 95% de los casos. En cuanto a la orientación sexual, supieron quién era gay en el 88% de los casos. En relación a la ideología, su sistema acertó al determinar los usuarios demócratas y republicanos en 85 usuarios de cada 100.
¿NOS GUSTA? “Con 250 “me gusta”, nuestro porcentaje de precisión sobre el género fue del 90%. Con 100 “me gusta”, la media de nuestra muestra, la fiabilidad aún es del 88%”, dice David Stillwell, coautor del estudio que acaba de publicar PNAS. Basta con un único ‘me gusta’ para obtener aún una precisión del 60%. Cuantos más tengamos, más precisión obtendremos”, añade.
Los investigadores contrastaron su modelo con los perfiles demográficos y de personalidad de los usuarios recogidos con autorización previa tanto de Facebook como del proyecto MyPersonality.
Para elaborar su matriz, descartaron a los usuarios con menor actividad en el muro de Facebook y los me gusta menos populares. Nuestro criterio fue que tenía que gustarles a al menos 100 personas de los 58.000 participantes del experimento, explica Stillwell. Entre los miles de me gusta los había tan neutros como Mozart, Ciencia, Sarah Palin y otros más reveladores como Odio a la policía o 293 cosas que puedes hacer cuando estás aburrido en clase.
A pesar de la inocencia de muchos de ellos, el algoritmo fue capaz de anticipar algunos de los rasgos más íntimos y personales de los usuarios. En el 78% de los casos pudo determinar quién era inteligente y quién no o si estaba ante alguien emocionalmente estable en el 68% de los casos. Mostró su peor capacidad predictiva a la hora de averiguar si el usuario había crecido en una familia unida o sus padres se habían separado antes de que fuera mayor de edad. Aun así, acertó en el 60% de los casos.
AMENAZA PARA LA PRIVACIDAD “Soy un gran fan y usuario activo de las nuevas y maravillosas tecnologías, incluido Facebook. Aprecio las recomendaciones automatizadas de libros o que Facebook seleccione las historias más relevantes para mi muro”, reconoce el director del Centro de Psicometría de la Universidad de Cambridge y coautor del trabajo, Michal Kosinski. “Sin embargo, puedo imaginar situaciones en las que los mismos datos y tecnologías son usados para predecir ideas políticas u orientación sexual, amenazando la libertad y hasta la vida”, añade.
El problema es que los me gusta, por defecto, son públicos. Y no tardarán mucho las empresas y Gobiernos en aprovecharlos en su beneficio. ”Creo que todas las empresas necesitan asegurarse de que dan a sus usuarios una experiencia personalizada. Yo quiero ver productos que sean relevantes para mí”, confiesa Stillwell. Pero también aclara que no tienen pensado “ningún proyecto comercial para estos algoritmos”.