El proyecto de ley prohibiría totalmente que una IA haga cualquier tipo de decisión ligada al lanzamiento de un arma nuclear.
El proyecto de ley prohibiría totalmente que una IA haga cualquier tipo de decisión ligada al lanzamiento de un arma nuclear.
/ Pixabay
Redacción EC

Autoridades de Estados Unidos han presentado un proyecto de ley que impediría que una pueda lanzar armas nucleares. La propuesta indica que este tipo de decisiones sean realizadas únicamente por humanos, además de ser un primer paso para regular la IA.

La política del Departamento de Defensa estadounidense ya prohíbe que la inteligencia artificial lance armas nucleares de forma autónoma. Pero en medio de los crecientes temores de la IA provocados por una plétora de amenazas potenciales, un grupo bipartidista de legisladores ha decidido asegurarse doblemente de que no podrá”, reporta .

MIRA: He-Man, Heidi y Meteoro: así se verían los recordados personajes de nuestra infancia si fueran reales, según una IA

El proyecto de ley impediría que se financie un lanzamiento nuclear si las decisiones no son tomadas por personas. “Como se anunció a principios de esta semana, el Senador Edward Markey (D-MA) y los Representantes Ted Lieu (D-CA), Don Beyer (D-VA) y Ken Buck (R-CO) presentaron la Ley de Lanzamiento Nuclear en Bloque por IA Autónoma, que ‘prohibiría el uso de fondos federales para lanzar un arma nuclear utilizando un sistema de armas autónomo que no esté sujeto a un control humano significativo”, agrega.

Este proyecto es parecido a la regla actual del Pentágono, las cual dice lo siguiente: “En todos los casos, Estados Unidos mantendrá un ser humano ‘al tanto’ de todas las acciones críticas para informar y ejecutar las decisiones del presidente para iniciar y terminar el empleo de armas nucleares”.

MIRA: Siri tiene problemas para ser como ChatGPT y Apple se está quedando atrás en la carrera de la IA

Incluso, esta propuesta significaría que cualquier decisión ligada a un lanzamiento de arma nuclear sea realizara por un humano. “El proyecto de ley, de la misma manera, dice que ningún sistema autónomo sin una supervisión humana significativa puede lanzar un arma nuclear o ‘seleccionar o atacar objetivos’ con la intención de lanzar uno. ‘Cualquier decisión de lanzar un arma nuclear no debe ser tomada por inteligencia artificial’, dice el texto”, afirma.

Pero, si ya había una regla que impedía el uso de la IA para lanzar armas nucleares, ¿por qué reafirmarla? Al crear una ley, no solo se prohibiría en todo aspecto que la inteligencia artificial tome este tipo de decisiones, sino que también impulsaría a que otras potencias, como Rusia o China, hagan lo mismo para evitar un posible accidente.

Contenido sugerido

Contenido GEC