No es la primera vez que la inteligencia artificial resulta sexista. (Foto: Getty Images)
No es la primera vez que la inteligencia artificial resulta sexista. (Foto: Getty Images)
BBC News Mundo

Amazon logró con Alexa convertirse en el rey de los asistentes personales y de la automatización. Tal vez por eso no resulte extraño que la firma quisiera poner la contratación de sus empleados en manos de la inteligencia artificial.

Pero esta aventura no salió como esperaba.

En 2014 la compañía de comercio electrónico puso en marcha un sistema algorítmicocon el que esperaba optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal.

Pero Amazon tuvo que despedir a su nuevo reclutador porque el algoritmo resultó ser sexista, de acuerdo con una investigación elaborada por Reuters. 

El sistema recibió información sobre solicitantes de empleo en Amazon durante un periodo de 10 años, y fue entrenado para observar patrones.

Y la mayoría de ellos eran hombres, lo cual pudo resultar en el sesgo que afectó a su toma de decisiones.

Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo "se enseñó a sí mismo que los candidatos masculinos eran una preferencia".

El algoritmo aprendió por su cuenta que ser hombre era favorable para trabajar en Amazon. (Foto: Getty Images)
El algoritmo aprendió por su cuenta que ser hombre era favorable para trabajar en Amazon. (Foto: Getty Images)

Según el informe de Reuters, esta tecnología funcionaba revisando solicitudes de empleo y dándoles a los candidatos un puntaje de una a cinco estrellas.

"Querían crear una máquina que recibiera 100 currículos y seleccionara los cinco mejores, para después nosotros contratarlos", explicó uno de los ingenieros, que prefirió no revelar su identidad.

Amazon todavía no ha respondido a las acusaciones. 

Mujeres "penalizadas"

En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software.

Entonces, comenzó a penalizar a los currículos que incluían la palabra "mujer".

Las mujeres eran descartadas principalmente para puestos técnicos. (Foto: Getty Images)
Las mujeres eran descartadas principalmente para puestos técnicos. (Foto: Getty Images)

El programa fue revisado para intentar erradicar el sesgo, pero Amazon ya no podía seguir confiando en él.

Finalmente, el proyecto fue abandonado, aunque Amazon nunca llegó a sacar a la luz información sobre este proyecto fallido.

Pero, de acuerdo con el informe de Reuters, el algoritmo fue usado durante algún tiempo por los reclutadores de personal de la compañía, quienes tenían en cuenta sus recomendaciones para sus decisiones (aunque no se regían únicamente por ellas). 

60/40

Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países.

Y la compañía fue nombrada en el último análisis de la red social para contactos profesionales LinkedIn "la mejor empresa del mundo para trabajar" por su retención de talento, solicitudes del empleo y el grado de interés que despierta.

Según LikedIn, Amazon es la mejor empresa del mundo para trabajar. (Foto: Getty Images)
Según LikedIn, Amazon es la mejor empresa del mundo para trabajar. (Foto: Getty Images)

Cerca del 55% de los directores de recursos humanos en Estados Unidos dicen que la inteligencia artificial jugará un papel crucial en la contratación de personal en los próximos cinco años, de acuerdo con una entrevista elaborada por la firma de software CareerBuilder. 

Algoritmos discriminadores

Esta no es la primera vez que hay dudas sobre cuán confiables son los algoritmos y cómo los datos que analizan pueden resultar en decisiones sesgadas.

En junio, un experimento del MIT, el Instituto Tecnológico de Massachusetts, EE.UU., reveló que es posible entrenar a un algoritmo para convertirlo en psicópata y que interprete la realidad de cierta manera.

El MIT creó un algoritmo psicópata. (Foto: MIT)
El MIT creó un algoritmo psicópata. (Foto: MIT)

Y en mayo del año pasado un informe sugirió que alguno programas computacionales generados por inteligencia artificial usados por un tribunal en Estados Unidos discriminaban a las personas de raza negra.

En algunos algoritmos de vigilancia predictiva también se observó el mismo sesgo: como los datos mostraban que los negros eran arrestados más veces, el sistema tomó esa pauta como norma.

Contenido sugerido

Contenido GEC