El joven peruano dio esta semana una conferencia sobre Inteligencia Artificial en la conferencia más importante sobre este tema.
El joven peruano dio esta semana una conferencia sobre Inteligencia Artificial en la conferencia más importante sobre este tema.
Jorge Paredes Laos

Omar Flórez trabaja en Silicon Valley —la meca de las nuevas tecnologías— en el desarrollo de nuevos algoritmos para mejorar la performance de teléfonos celulares y otros equipos que utilizan sistemas integrados de inteligencia artificial. Esta semana ha sido uno de los pocos latinoamericanos que ha participado como ponente en el Neural Information Processing Systems (NIPS), en Montreal, Canadá, la conferencia sobre inteligencia artificial más importante del mundo.

¿Puede esta tecnología ser racista? Es la pregunta con la que suele abrir sus conferencias. Tal vez esta interrogante puede sorprender a alguien que no está familiarizado con la inteligencia artificial. Flórez dice que se trata solo de algoritmos hechos por personas y que, por lo mismo, pueden repetir ciertos prejuicios y discriminaciones que suceden en el mundo real.

¿Cómo desarrollas tu trabajo en el campo de la inteligencia artificial?
Trabajé en el centro de investigación de Intel durante cinco años, justo después de terminar el doctorado. Mi tema de tesis fue la detección de accidentes en autopistas usando cámaras y recibí un premio de parte de IBM Research. Lo que hacía era básicamente usar la inteligencia artificial para predecir el comportamiento de la gente, su performance en el trabajo, su nivel de estrés, etc. El metabolismo de cada uno es diferente y, por lo tanto, cada quien se comporta de manera distinta. Además, influyen factores como el clima, la contaminación, etc. Básicamente mi objetivo era entender qué cosa impacta en la rutina de la gente.

¿De qué aplicaciones estamos hablando?
Estamos hablando del desarrollo de teléfonos celulares que anticipan tu comportamiento, por ejemplo, que detectan el tiempo que permaneces sentado al día y, según eso, pueden predecir la cantidad de ejercicio que necesitas hacer para estar de buen humor a la mañana siguiente. O, si deseas bajar de peso, analizan tu metabolismo para predecir cuánta dieta necesitas hacer. Lo que hacemos son cosas que todavía no están en el mercado, pero que aparecerán dentro de cinco años. Pueden aparecer en un celular, pero también en un automóvil o en los artefactos de una casa.

En el caso de la inteligencia artificial se trata
de algoritmos….

Sí, y para que la gente lo entienda, es algo que se parece mucho a una receta de cocina. Tienes ingredientes y una secuencia de pasos. Cuando nos referimos a la inteligencia artificial, hablamos de algoritmos que procesan datos capaces de predecir el futuro, basados en patrones del pasado. Por ejemplo, cuando lanzo una pelota hacia una dirección, mido su velocidad, su trayectoria y el tiempo que le toma llegar a su destino; entonces, puedo predecir su comportamiento futuro de acuerdo a estos patrones. Mi trabajo consiste en crear nuevos algoritmos, y dentro de este proceso he encontrado algunas fallas que están impactando en las minorías.

¿Puede la inteligencia artificial ser racista?
Yo pregunto eso en las charlas, si esta puede ser racista o misógina de acuerdo al tipo de minoría a la que se orienta. Mi respuesta es que simplemente refleja de forma concreta las injusticias y los estereotipos que tenemos en la realidad. Por ejemplo, si uno reconoce el rostro de la gente con un dispositivo, el algoritmo funciona sobre la base de minimizar el error. Es como una caja negra. Y es muy probable que la computadora tenga como variable el tono de piel para detectar ciertos patrones. Una computadora no debería predecir cosas sobre la base del color de la piel, la inclinación sexual o el lugar de nacimiento, pero los algoritmos y las aplicaciones comerciales cada vez más están haciendo esto. Por eso hallar algoritmos que dejen de hacerlo puede hacer que la sociedad sea más justa.

¿Cómo se expresa esto en los comportamientos?
Los patrones de consumo están definiendo muchas de estas cosas. Es posible que la comunidad LGTB, por ejemplo, vaya a lugares particulares y realice actividades específicas, y eso no tiene nada de malo si se queda en el anonimato. Sin embargo, para dar un mejor servicio o para ofrecer descuentos, se codifican estos patrones, se codifica que eres gay, y se usan datos muy sensibles. Eso ya no es ético.

También puedes ver:
Omar Flórez habla sobre Machine Learning en una entrevista web del canal devAcademy.

Contenido sugerido

Contenido GEC