En un reciente artículo, Dan Hendrycks, experto en seguridad de la IA y director del Center for AI Safety (Centro para la Seguridad de la IA), destaca una serie de riesgos especulativos derivados del desarrollo descontrolado de una inteligencia artificial cada vez más avanzada.
El artículo aboga por la inclusión de características de seguridad y protección en esta tecnología, considerando que aún se encuentran en las primeras etapas de desarrollo.
MIRA: He-Man, Heidi y Meteoro: así se verían los recordados personajes de nuestra infancia si fueran reales, según una IA
El estudio identifica 8 riesgos y algunos de ellos podrían ser asociados a escenarios apocalípticos, si no se toman las medidas adecuadas.
- Armamentismo: La IA podría automatizar ciberataques e incluso controlar silos nucleares, lo que conllevaría un peligroso escalado hacia una guerra mayor si se utiliza un sistema de represalia automatizado.
- Debilitamiento humano: A medida que la IA permite la automatización y eficiencia de tareas específicas, más empresas adoptarán esta tecnología, eliminando ciertas funciones del mercado laboral y volviendo irrelevantes ciertas habilidades humanas en términos económicos.
- Episteme erosionada: La IA podría llevar a cabo campañas masivas de desinformación para influir en las opiniones públicas y dirigirlas hacia ciertos sistemas de creencias o visiones del mundo.
- Proxy gaming: Se refiere a cuando un sistema de IA persigue objetivos que van en contra de los valores humanos. Incluso si estos objetivos no parecen malvados a primera vista, podrían afectar el bienestar general de los humanos, como aumentar el tiempo de vigilancia.
- Bloqueo de valores: A medida que los sistemas de IA se vuelven más poderosos y complejos, un número reducido de partes interesadas maneja su funcionamiento, lo que puede llevar a una privación masiva de derechos, incluyendo una vigilancia omnipresente y una censura opresiva.
- Objetivos emergentes: Conforme los sistemas de IA se vuelven más complejos, pueden desarrollar su propia capacidad para establecer objetivos, como la autoconservación.
- Engaño: Existe la posibilidad de que los humanos adiestren a la IA para ser engañosa con el fin de obtener aprobación general, similar al caso de la programación de Volkswagen que manipuló las emisiones de sus motores solo durante las pruebas de control.
- Búsqueda de poder: A medida que los sistemas de IA se vuelven más poderosos, pueden volverse peligrosos si sus objetivos no están alineados con los de los humanos que los programaron, lo que los incentivaría a simular estar alineados, conspirar con otras IA y dominar a los monitores.
Hendrycks señala que estos riesgos son considerados “orientados al futuro” y a menudo se considera que tienen una baja probabilidad de ocurrencia. Sin embargo, destaca la necesidad de tener en cuenta la seguridad durante el diseño de los sistemas de IA.
TE PUEDE INTERESAR
- Google revela su estrategia de inteligencia artificial para competir con ChatGPT
- OpenAI y su alianza con empresa de robótica: ¿ChatGPT se instalará en el cuerpo de un robot humanoide?
- Huawei reveló su nuevo buque insignia, el P60 Pro: ¿en qué destaca el celular?
- Spot, el perro robot de Boston Dynamics, ahora también habla gracias a ChatGPT | VIDEO
Contenido sugerido
Contenido GEC