La Inteligencia Artificial desafía a los legisladores que tratan de regularla. (Foto: iStock)
La Inteligencia Artificial desafía a los legisladores que tratan de regularla. (Foto: iStock)
/ Ilya Lukichev
Agencia AFP

Desde las aspiradoras inteligentes a los automóviles sin conductor, la se ha abierto camino en todos los ámbitos de la vida y obliga a los legisladores a adaptarse frente a sus consecuencias, todavía desconocidas.

Sus defensores creen que la inteligencia artificial (IA) está revolucionando la experiencia humana, pero sus críticos temen dejar en manos de las máquinas decisiones fundamentales.

La Unión Europea (UE) quiere aprobar el año que viene una legislación especifica, Estados Unidos publicó un proyecto de ley sobre la IA y Canadá también está estudiando legislar.

En Occidente preocupa que la IA se use como en China, con datos biométricos o reconocimiento facial para construir un sistema de control de la población.

MIRA: ¿Cómo será el Perú en 100 años? Una IA nos responde esta pregunta y nos da su visión futurista

Gry Hasselbach, un académico danés que asesora a la UE sobre IA, aseguro que los países occidentales también están en peligro de crear “infraestructuras totalitarias”.

Lo veo como una gran amenaza, sean cuales sean los beneficios”, dijo a AFP.

Pero antes de que los reguladores puedan actuar, deberán primero enfrentarse a la compleja tarea de definir qué es realmente la IA.

Suresh Venkatasubramanian de la Universidad de Brown, coautor del proyecto de ley estadounidenses sobre IA, cree que tratar de definirla es “una pérdida de tiempo”.

Cualquier tecnología que afecte los derechos de las personas debe estar dentro del alcance del proyecto de ley, afirmó en Twitter.

MIRA: Así se verían los personajes de Genshin Impact en la vida real, según una inteligencia artificial

Los 27 países de la UE optaron en cambio por intentar definir este campo en expansión y el proyecto de ley incluye prácticamente cualquier sistema informático que implique automatización.

El problema surge de la definición misma de la IA, que ha ido cambiando con el tiempo.

Durante décadas, el término describió los intentos de crear máquinas que simulan el pensamiento humano. Pero en los años 2000 se dejó de investigar lo que se conoce como IA simbólica.

El ascenso de las grandes compañías de Silicon Valley hizo que el término IA se usara como etiqueta general para sus programas de procesamiento y para los algoritmos que generan.

Esta automatización permitió dirigirse a los usuarios con publicidad y contenido personalizado e hizo ganar cientos de miles de millones de dólares a esas empresas.

MIRA: ¿Cómo superar cualquier examen? Una IA nos brinda seis consejos clave

La IA era una forma de hacer un mayor uso de estos datos de vigilancia y de hacer incomprensible lo que estaba sucediendo”, dijo a AFP Meredith Whittaker, exempleada de Google y cofundadora del AI Now Institute de la Universidad de Nueva York.

Por eso, tanto la UE como Estados Unidos llegaron a la conclusión de que cualquier definición de IA debe ser lo más amplia posible.

Tecnologías “demasiado complejas”

El proyecto de ley europeo tiene más de 100 páginas. Entre sus propuestas más llamativas está la prohibición total de ciertas tecnologías de “alto riesgo”, como las herramientas de vigilancia biométrica utilizadas en China.

También limita drásticamente el uso de herramientas de IA por parte de los funcionarios de migración, la policía y los jueces.

Hasselbach, el académico que asesora a la UE, cree que algunas tecnologías son “simplemente demasiado complejas para los derechos fundamentales”.

MIRA: Le preguntamos a una IA cómo volverse millonario y estos son los consejos que dio

A diferencia de la UE, en Estados Unidos el proyecto de legislación es un breve conjunto de principios, con afirmaciones como “debería estar protegido de sistemas inseguros o ineficaces”.

El proyecto de ley fue publicado por la Casa Blanca y se basa en la legislación existente, pero los expertos creen poco probable que haya una legislación específica sobre IA en Estados Unidos antes de 2024.

Necesitamos desesperadamente regulación”, dice a AFP Gary Marcus, de la Universidad de Nueva York, y señala que existen “grandes modelos lingüísticos” de inteligencia artificial --como los chatbots, las herramientas de traducción o el software de texto predictivo--que pueden utilizarse para generar desinformación perjudicial.

Contenido sugerido

Contenido GEC