Google habría lanzado su chatbot Bard pese a que dos analistas advirtieron que este podría ser un peligro. Según el informe de ambos trabajadores, la inteligencia artificial no estaba listo para que el público en general la utilizara, pues daba respuestas que podrían ser falsas, y, además, las medidas de seguridad de no era las mínimas. Incluso, se modificó el documento para que no aparezcan estas recomendaciones.
“En marzo, dos empleados de Google, cuyo trabajo consiste en revisar los productos de inteligencia artificial de la empresa, intentaron evitar que Google lanzara un chatbot con inteligencia artificial. Creían que generaba declaraciones inexactas y peligrosas”, reporta The New York Times.
MIRA: ¿Qué trabajo corre el mayor peligro de ser reemplazado por los chatbots de ChatGPT, Bing y Bard?
Ambos, quienes eran parte del equipo de Jen Gennai, directora del grupo de Innovación Responsable de Google, enviaron un informe con los detalles. “Dos analistas del equipo de la Sra. Gennai presentaron su evaluación de riesgo de Bard. Recomendaron bloquear su lanzamiento inminente, dijeron dos personas familiarizadas con el proceso. A pesar de las medidas de seguridad, creían que el chatbot no estaba listo”, agrega el medio.
El gran problema fue que Gennai cambió el informe con el objetivo de que no se vean los peligros de un lanzamiento temprano de Bard. “La Sra. Gennai modificó ese documento. Sacó la recomendación y minimizó la gravedad de los riesgos de Bard, dijeron las personas”, asegura el diario norteamericano.
Sin embargo, Gennai señala que ambos analistas no debieron dar recomendaciones, pues Bard era un experimento. “La Sra. Gennai dijo en un correo electrónico que debido a que Bard era un experimento, se suponía que los revisores no debían opinar sobre si debería continuar. Dijo que ‘corregió suposiciones inexactas y, de hecho, agregó más riesgos y daños que necesitaban consideración’”, añade.
MIRA: Fedha, la presentadora de televisión virtual creada con inteligencia artificial en Kuwait
Bard salió en marzo de este años de forma oficial y tiene la etiqueta de ser un experimento, por lo que podría dar información equivocada. Es decir, Google informa al usuario que las afirmaciones del chatbot podrían ser erróneas, por lo que no se deberían tomar como una verdad absoluta.
Sin embargo, esta no sería la primera vez que Google ha evitado publicaciones de sus investigadores con respecto a la ética en la IA. “En 2020, Google evitó que sus principales investigadores de ética en IA, Timnit Gebru y Margaret Mitchell, publicaran un artículo advirtiendo que los llamados modelos de lenguaje grande utilizados en los nuevos sistemas de IA, los cuales están capacitados para reconocer patrones a partir de grandes cantidades de datos, podrían arrojar un lenguaje abusivo o discriminatorio”, afirma el periódico estadounidense.
Ambos fueron despedidos por la compañía. “Los investigadores fueron expulsados después de que el Dr. Gebru criticara los esfuerzos de diversidad de la compañía y acusaran a la Dra. Mitchell de violar su código de conducta después de que ella guardó algunos correos electrónicos de trabajo en una cuenta personal de Google Drive”, concluye.
Contenido sugerido
Contenido GEC