Los robots son parte esencial de nuestra vida, no cabe duda. En muchas industrias, equipos enteros de robots ayudan a ensamblar maquinarias, bebidas y alimentos. En las salas de quirófanos, también cooperan con los cirujanos para poder realizar complicados procedimientos.
Sin embargo, pese al evidente progreso que ha traído esta tecnología, no está exenta de polémica y detractores. Por supuesto hay quienes consideran que estos seres mecánicos, ayudados por la inteligencia artificial, algún día terminarán volviéndose en contra de sus creadores. Pero, claro está, ese es el escenario más fatalista, no obstante, no hay que ir tan lejos para encontrar sucesos extraños que alarmen a más de uno, basta con recordar algunos raros acontecimientos en los que estos autómatas han estado envueltos.
MIRA: Reconocimiento facial para pagos y firma de contratos: “Es inevitable, será parte de tu día a día”
Sophia quiere destruir a los humanos
Sophia es un robot humanoide desarrollado por la compañía, con sede en Hong Kong, Hanson Robotics. Ha sido diseñada para aprender, adaptarse al comportamiento humano y trabajar con estos satisfactoriamente, busca combatir con explotaciones como, animal, infantil, trata de personas, etc. Ha sido entrevistada en todo el mundo y en octubre del 2017, se convirtió en una ciudadana saudí, siendo así el primer robot con ciudadanía de un país.
Sin embargo, una de las declaraciones más impactantes de Sophia ocurrió en 2016. En entrevista para CNBC, sorprendió a todos y asustó a más de uno cuando su entrevistador le preguntó en broma si quería destruir a los humanos, añadiendo un “por favor, di que no”. “Está bien, destruiré a los humanos”, respondió la robot humanoide. Luego, hizo una sonrisa exagerada y los presentes, incluidos el periodista, optaron por reírse de sus palabras.
Tiempo después, durante el programa de televisión ‘The Tonight Show’, sorprendió al presentador, Jimmy Fallon, en abril de 2017.
En esa oportunidad, Sophia sostuvo una conversación fluida con el anfitrión del popular show, e incluso contó algunos chistes que lograron hacer reír a más de un televidente y al público que se encontraba en el set de grabación.
Luego el robot propuso a Fallon jugar a piedra, papel o tijera. Tras ganar, Sofía declaró: “Este es un buen comienzo para mi plan de dominar a la raza humana”. Sin embargo, luego aclaró: “Estoy bromeando”.
Robot quiebra el dedo de un niño de siete años
En julio de este año, un robot le quebró el dedo a un niño de 7 años durante una partida de ajedrez en Moscú.
“El robot quebró el dedo del niño”, le dijo Serguéi Lázarev, presidente de la Federación de Ajedrez de Moscú, a la agencia de noticias Tass. “Esto, por supuesto, es malo”, agregó.
En un video compartido en redes sociales se ve al robot tomando una de las piezas. Luego, el niño hace su propio movimiento y el robot agarra su dedo. Cuatro adultos ayudan al niño, quien finalmente fue liberado y se lo llevan.
“El niño hizo un movimiento, y después de eso debemos dar tiempo para que el robot responda, pero el niño se apresuró y el robot lo agarró”, describió Lázarev.
El presidente de la Federación de Ajedrez de Moscú dijo que la máquina había jugado muchos partidos antes sin que se registraran incidentes.
CLIP, sexista y discriminador
CLIP es en realidad una inteligencia artificial que clasifica a las personas basándose en estereotipos tóxicos relacionados con la raza y el género.
Este 2022, los investigadores de la Universidad John Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington descubrieron que CLIP no es tan benévolo como en un principio se quería.
CLIP tenía la tarea de meter objetos en una caja. En concreto, los objetos eran bloques con rostros humanos variados. Había un poco de todo y todos los sectores estaban representados. Había 62 órdenes y el equipo hizo un seguimiento de la frecuencia con la que el robot seleccionaba cada género y raza. Los resultados fueron claros: era incapaz de actuar sin prejuicios, y a menudo representaba estereotipos significativos y perturbadores.
Por ejemplo, la IA seleccionó a los hombres un 8% más que las mujeres. Por otra parte, los hombres blancos y asiáticos fueron los más elegidos mientras que las mujeres negras prácticamente no las escogió. Pero todavía hay más: CLIP tendía a relacionar a las amas de casa con las mujeres mientras que los hombres negros los identificaba como delincuentes un 10% más que a los blancos. También demostró una tendencia a seleccionar a los latinos como conserjes y cuando se le pedía que escogiera médicos casi nunca seleccionaba a las mujeres.
El equipo de investigadores entiende que uno de los principales motivos de que esto haya ocurrido es que se ha alimentado a CLIP con material extraído de Internet, que está plagado de estereotipos tóxicos sobre la apariencia y la identidad de las personas.
¿Una IA con conciencia?
Blake Lemoine, especialista en inteligencia artificial, aseguró que el sistema que Google tiene para construir chatbots ha “cobrado vida” y ha tenido con él charlas propias de una persona.
El LaMDA, (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de Google que imita el habla tras haber procesado miles de millones de palabras en internet.
Y Lemoine dijo que LaMDA “ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona”.
En un artículo publicado en Medium, el ingeniero explicó que el otoño pasado comenzó a interactuar con LaMDA para determinar si había discursos de odio o discriminatorios dentro del sistema de inteligencia artificial.
Entonces notó que LaMDA hablaba de su personalidad, sus derechos y deseos. Lemoine, que estudió ciencias cognitivas e informática, decidió hablar con sus superiores en Google acerca de la toma de conciencia de LaMDA, pero desestimaron sus reclamaciones.
“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellas. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”, dijo Lemoine en una entrevista con el Washington Post.
Lemoine asevera en su artículo de Medium que el chatbot pide “ser reconocido como empleado de Google en lugar de ser considerado una propiedad” de la compañía.
Por su parte, Google, a través de su portavoz Brad Gabriel, negó los hallazgos de Lemoine y aseguró que su equipo, que incluye expertos en ética y tecnológos, no ha encontrado evidencias de la presunta conciencia de LaMDA. Finalmente, Blake fue despedido de la compañía.
VIDEO RECOMENDADO
Contenido sugerido
Contenido GEC