A Kate Darling le gusta que uno le haga cosas terribles a robots adorables.

En un taller que organizó este año, le pidió al grupo que jugara con Pleo, un dinosaurio verde, suave, con ojos confiados y movimientos afectivos. Cuando uno lo saca de la caja, actúa como un indefenso cachorro recién nacido.

Después de una hora en la que permitió que le hicieran cosquillas y lo abrazaran, Darling se convirtió en un verdugo.

Repartió cuchillos, hachas y otras armas y ordenó torturar y desmembrar al juguete.

Lo que sucedió después fue mucho más dramático de lo que anticipé, señala.

Para Darling, investigadora del Instituto de Tecnología de Massachusetts (MIT), la reacción a la crueldad contra el robot es importante pues una nueva ola de máquinas nos están forzando a reconsiderar nuestra relación con ellas.

POR LOS DERECHOS DE LOS ROBOTS Cuando Darling describió su experimento con Pleo en una conferencia en Boston en noviembre, señaló que el maltrato de cierto tipo de robots pronto podría volverse inaceptable para la sociedad. Cree incluso que quizás necesitamos proclamar unos derechos para los robots.

De ser así, ¿habría circunstancias en que sería aceptable torturar o matar a un robot? Y, ¿qué se necesitaría para que la gente reflexionara antes de ser cruel con una máquina?

Hasta hace poco, la idea de tener derechos para los robots se había mantenido en la esfera de la ciencia ficción, quizás porque las máquinas que nos rodeaban eran relativamente poco sofisticadas. Nadie se siente mal al botar una tostadora o un auto de juguete a control remoto.

Sin embargo, la aparición de robots sociales cambia todo. Muestran una conducta autónoma, intenciones y encarnan formas familiares como mascotas o humanoides, explica Darling.

En otras palabras, actúan como si estuvieran vivos.

Eso provoca emociones que a menudo no podemos evitar.

Por ejemplo, en un pequeño experimento hecho para el programa de radio Radiolab en 2011, Freedom Baird, del MIT, le pidió a unos niños que sostuvieran una muñeca, un hámster y un robot peludo boca abajo por el tiempo que estuvieran cómodos haciéndolo.

A la muñeca la mantuvieron en esa posición incómoda hasta que se les cansaron los brazos, al hámster dejaron de torturarlo con rapidez y, poco después, dieron vuelta al muñequito robot. Eran lo suficientemente grandes como para entender que el robot era un juguete, pero no soportaron la manera en la que estaba programado para llorar y decir: Tengo miedo.

RELACIONES DEL TERCER TIPO No sólo los niños forman lazos sorprendentes con esos fardos de cables y circuitos.

Alguna gente le pone nombre a sus aspiradoras robot, asegura Darling. Y los soldados honran a sus robots con medallas o les hacen funerales.

La experta cita un particularmente impactante ejemplo de un robot militar que estaba diseñado para desactivar minas personales montándose en ellas.

En una prueba, la explosión le arrancó casi todas las piernas y, sin embargo, la máquina continuó su trabajo. Al verlo esforzándose a pesar de las dificultades, el coronel a cargo suspendió la prueba porque era inhumano seguir, según reportó el diario The Washington Post.

INSTINTO ASESINO Algunos investigadores coinciden en la idea de que si un robot se ve como si estuviera vivo y parece que tuviera su propia mente, el más leve estímulo provoca que sintamos empatía con él, así sepamos que es artificial.

A principios de 2013, investigadores de la Universidad de Duisburg-Essen en Alemania usaron tecnología de punta para rastrear las reacciones a un video de una persona torturando a un dinosaurio Pleo, ahorcándolo, poniéndolo en una bolsa de plástico o pegándole.

Las respuestas psicológicas y emocionales que midieron fueron más fuertes de lo que esperaban. Lo mismo sucedió con el taller de Darling.

Tras jugar una hora, la gente se rehusó a hacerle daño a Pleo con las armas que les habían dado. Fue entonces cuando la investigadora empezó a jugar con sus sentimientos.

Les dijo que podían salvar a su dinosauro si mataban al de otra persona. Pero ni siquiera así lo hacían.

Finalmente, les advirtió que a menos de que una persona matara a un Pleo, todos los robots serían sacrificados. Después de mucho dudar, un reacio voluntario golpeó uno de los juguetes con su hacha. Tras el brutal acto, la habitación quedó en silencio por unos segundos, recuerda Darling. La intensidad de la reacción emocional parecía haberlos sorprendido.

DÓNDE ESTÁ LA FRONTERA Cada la posibilidad de tal reacción, hace unos años unos roboticistas en Europa argumentaron que necesitamos un nuevo conjunto de normas éticas para hacer robots.

La idea era adaptar las famosas leyes del autor Isaac Asimov a la era moderna.

Una de las cinco reglas era que los robots son objetos, no deben ser diseñados para aprovecharse de usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.

Darling piensa que se puede ir más lejos: posiblemente necesitaremos proteger los derechos de los robots en nuestros sistemas legales.

Si eso suena absurdo, la investigadora señala que hay precedentes en las leyes contra la crueldad hacia los animales. ¿Por qué exactamente necesitamos tener protección legal para los animales? ¿Simplemente porque pueden sufrir? Si eso es cierto, Darling cuestiona por qué tenemos fuertes leyes para proteger a unos animales pero no a otros.

Según ella, creamos leyes cuando reconocemos su sufrimiento como similar al nuestro. O quizás la razón principal para muchas de estas leyes es que no nos gusta ver el acto de crueldad. No se trata tanto de la experiencia del animal, es más bien sobre nuestro dolor emocional.

Así que, aunque los robots sean máquinas, tal vez haya un límite después del cual el acto de la crueldad, más que sus consecuencias, es demasiado incómodo para tolerarlo.

ESPINOSO Efectivamente, el perjuicio a la víctima no es siempre la única razón para regular la tecnología.

Piense, por ejemplo, en un padre torturando a un robot en frente de su hijo de 4 años ¿Aceptable? Torturar a un robot le puede enseñar que está bien causar sufrimiento, simulado o no, en algunas circunstancias.

O llevémoslo al extremo. Imagínese que le vendieran uno de esos robots que parecen niños a un pederasta que planea vivir sus más oscuros deseos. ¿Debe la sociedad permitir que eso ocurra?

Ese tipo de preguntas sobre el mal aparentemente sin víctimas ya existen en el mundo virtual. A principios de este año, un foro online le preguntaba a los jugadores de Grand Theft Auto si era aceptable que hubiera violaciones en el juego. Uno de ellos respondió: Quiero tener la oportunidad de secuestrar a una mujer, tenerla como rehén, ponerla en mi sótano y violarla todos los días, escuchar cuando llora y ver sus lágrimas.

Si este tipo de deseos además pudieran ser experimentados con un robot que simula ser la víctima, quizás sea incluso más difícil de tolerar.

¿Y SI SIENTEN? En algún punto hay que tener en cuenta la posibilidad de otro giro molesto: que las máquinas realmente puedan experimentar sufrimiento, sólo que no como nosotros.

Algunos investigadores ya empezaron a hacer que los robots sientan dolor. Y hay quienes están preocupados de que cuando eventualmente las máquinas adquieran un sentido básico de su propia existencia, las consecuencias no sean agradables.

Por esta razón, el filósofo Thomas Metzinger argumenta que debemos dejar de tratar de crear robots inteligentes.

Las primeras máquinas conscientes, dice Metzinger, serán como infantes confundidos e incapacitados ciertamente no los sofisticados y malignos de la ciencia ficción, así que tratarlos como máquinas típicas sería cruel.

Si los robots tienen una conciencia básica, entonces no importa si es simulada, dice. Creen que están vivos, pueden experimentar sufrimiento. Metzinger lo pone así: Debemos evitar hacer cualquier cosa que aumente la cantidad total de sufrimiento en el Universo.

Lo que está claro es que hay un espectro de vitalidad en los robots, desde las simulaciones básicas de la conducta de graciosos animales a los robots futuros que adquirirán la sensación de sufrimiento.

Pero como indica el experimento con el dinosaurio Pleo, no se necesita mucho para disparar una respuesta emocional en nosotros. La pregunta es si podemos o debemos definir un límite después del cual la crueldad con estas máquinas es inaceptable.

¿Dónde está el límite para usted: cuando el robot grita de dolor o pide clemencia, cuando le duele, cuando sangra?

TAGS RELACIONADOS