Maite  Vizcarra

El sigue siendo la manera más cercana y evidente que tenemos a la fecha de vincularnos con la en su denominada variante de inteligencia artificial generativa (IAG). Y la IAG es una rama de la IA que se enfoca en la generación de contenido original a partir de los datos existentes. Esto es posible dado que hay maneras de enseñar a la IA (aprendizaje profundo o ‘deep learning’) a que identifique patrones en base a los muchos datos que se le ponga en frente.

Pero sucede que, a veces, los datos que usa la IA vienen “marcados” con la impronta de quien los creó, ordenó, indexó o simplemente “trató” –técnicamente hablando–. Este tema no es menor, pues nos permite entender que, tal y como está la actual –volúmenes ingentes de datos, a niveles de varios petabytes– en el mundo, es un insumo que puede transferir sesgos en los análisis y aprendizajes que realicen nuestras amigas, las IA.

Este asunto se viene analizando de manera intensa desde el 2016 y ya hay evidencia que demuestra que, en sus análisis o creaciones, en efecto, es posible que las IAG se vuelvan discriminadoras o, peor aún, manipuladoras. Por ejemplo, ese mismo año, una agencia de periodismo de investigación en Estados Unidos (ProPublica) descubrió que ciudadanos afroamericanos obtenían, erróneamente, un mayor puntaje en la evaluación de riesgo de reincidencia del crimen cuando eran evaluados en base a ‘data sets’ ordenados por una IA. En un escenario muy negativo, el sesgo respecto de esta población al indexarse sus casos criminales podría haber sido tomado en cuenta por un juez para decidir sus penas, perjudicándolos grandemente.

Esta situación es similar a los hallazgos encontrados en las evaluaciones hechas por IAG cuando analizan quién tiene más riesgo de salir afectado en accidentes de tránsito en el diseño de sistemas de seguridad de vehículos, mostrando que la calificación perjudica a las mujeres, a pesar de tener puesto el cinturón de seguridad. Esto se puede explicar en base a que no existe información suficiente sobre las dimensiones del tamaño y peso de las mujeres en las pruebas de diseño. Otra vez, la ‘Big Data’ con la que se entrena a las IA es insuficiente y las lleva a sesgarse.

Pero hay peores situaciones que nos impulsan a recordar un capítulo de esa estupenda serie de escenarios futuristas de Netflix llamada “Black Mirror”, en la que se ve a un mundo en el que las actividades diarias de los ciudadanos están constantemente monitoreadas y calificadas por un gran “Big Brother” que, además, va colocando puntos a cada persona en función de si se apartan –o no– de tal o cual perfil.

Y, aunque la serie de televisión se estrenó en el 2016 –y dado que “la realidad siempre supera a la ficción”–, dos años antes, en China, se iniciaba la aplicación de un “sistema de crédito social” que, al igual que en la serie, permitía elaborar un “Índice Nacional de Confianza Social”, que valora el tipo de ciudadano que es cada uno, en base a cómo una IA puntúa nuestro comportamiento en las redes sociales y nuestras transacciones digitales.

Menos mal, este tipo de prácticas (‘social scoring’) serán prohibidas en parte del mundo. Concretamente, en Europa y como parte de las muchas situaciones de riesgo que la primera ley que regula la IA en la humanidad ha identificado como muy riesgosas.

Hay que reconocer la decisión visionaria de la Comunidad Europea de plantear que básicamente se enfoca en modelar de la mejor manera los efectos éticos de la IA en nuestras vidas.

Definitivamente, ayer se hizo historia en la vida de toda nuestra especie, pues la llamada Artificial Intelligence Act, como bien decía su ponente en el Parlamento Europeo, el legislador italiano Brando Benifei, “es el primer paso para un claro y seguro desarrollo de la IA centrado en el ser humano”.

*El Comercio abre sus páginas al intercambio de ideas y reflexiones. En este marco plural, el Diario no necesariamente coincide con las opiniones de los articulistas que las firman, aunque siempre las respeta.

Maite Vizcarra es tecnóloga, @Techtulia

Contenido Sugerido

Contenido GEC