Julia Angwin

Greg Marston, un actor de voz británico, recientemente se encontró con Connor en línea, un clon de su voz generado por la (IA), entrenado en una grabación que Marston había hecho en el 2003. Era su voz pronunciando cosas que nunca había dicho.

En aquel entonces, había grabado una sesión para IBM y más tarde firmó un formulario de lanzamiento que permitía que la grabación se usara de muchas maneras. Por supuesto, en ese momento, Marston no podía imaginar que IBM usaría algo más que las declaraciones exactas que había grabado. Sin embargo, gracias a la inteligencia artificial, IBM pudo vender la muestra de décadas de Marston a sitios webs que la están utilizando para construir una voz sintética que podría decir cualquier cosa. Marston descubrió recientemente su voz que emanaba del sitio web de Wimbledon durante el torneo de tenis (IBM dijo que está al tanto de la preocupación de Marston y lo está discutiendo directamente con él).

Estamos en un momento de erosión de la confianza, ya que las personas se dan cuenta de que sus contribuciones a un espacio público pueden ser tomadas, monetizadas y potencialmente utilizadas para competir con ellas. Cuando esa erosión sea completa, me preocupa que nuestros espacios públicos digitales puedan contaminarse aún más con contenido poco confiable.

Los artistas ya están eliminando su trabajo de X, anteriormente conocido como Twitter, después de que la compañía dijera que usaría datos de su plataforma para entrenar a sus escritores y actores de A.I. Hollywood están en huelga en parte porque quieren asegurarse de que su trabajo no alimente a sistemas de IA con los que las empresas podrían intentar reemplazarlos. Los medios de comunicación, incluidos “The New York Times” y CNN, han agregado protección a sus sitios webs para ayudar a evitar que los chatbots de IA raspen su contenido.

Los autores están demandando a los equipos de IA, alegando que sus libros están incluidos en los datos de entrenamiento de los sitios. OpenAI ha argumentado, en un procedimiento separado, que el uso de datos protegidos por derechos de autor para entrenar sistemas de IA es legal bajo la disposición de “uso justo” de la ley de derechos de autor.

Este es un caso clásico de tragedia de los comunes, en la que un recurso común se ve perjudicado por los intereses de lucro de los individuos. El ejemplo tradicional de esto es un campo público en el que el ganado puede pastar. Sin límites, los propietarios individuales de ganado tienen un incentivo para sobrepastorear la tierra, destruyendo su valor para todos.

Estos bienes comunes de ahora están siendo sobrepastoreados por compañías tecnológicas rapaces que buscan alimentar toda la sabiduría humana, la experiencia, el humor, las anécdotas y los consejos que encuentran en estos lugares en sus sistemas de IA con fines de lucro.

Han sido principalmente los periodistas los que han desenterrado los datos turbios que se encuentran debajo de la superficie brillante de los chatbots. Una investigación reciente detallada en “The Atlantic” reveló que más de 170.000 libros pirateados están incluidos en los datos de entrenamiento para el chatbot de IA de Meta, Llama. Una investigación de “The Washington Post” reveló que ChatGPT de OpenAI se basa en datos extraídos sin consentimiento de cientos de miles de sitios webs.

Pero la transparencia no es suficiente para reequilibrar el poder entre aquellos cuyos datos están siendo explotados y las empresas preparadas para sacar provecho de la explotación.

Para personas como Marston, sus medios de vida están en juego. Estima que su clon de IA ya le ha perdido empleos y reducirá significativamente sus ganancias futuras. “Nunca acepté ni consentí que clonaran mi voz, para escucharla en el público, compitiendo así contra mí mismo”, me dijo.

Pero incluso aquellos de nosotros que no tenemos un trabajo directamente amenazado por la IA pensamos en escribir esa novela o componer una canción o grabar un TikTok o hacer una broma en las redes sociales. Si no tenemos ninguna protección contra los sobrepastoreadores de datos de IA, me preocupa que se sienta inútil incluso tratar de crear en público. Y eso sería una verdadera tragedia.

–Glosado, editado y traducido–

© The New York Times

Julia Angwin es periodista estadounidense