Mientras examinamos los resultados de las elecciones de medio término en Estados Unidos, sería fácil pasar por alto las amenazas para la democracia que están a la vuelta de la esquina. Quizás la más seria sea la inteligencia artificial en forma de ‘chatbots’ automatizados que se hacen pasar por humanos.
Los ‘chatbots’ son programas que pueden conversar con seres humanos en las redes sociales utilizando un lenguaje natural. Cada vez más van tomando la forma de sistemas de aprendizaje automático que “aprenden” a responder apropiadamente usando inferencia probabilística de grandes conjuntos de datos, junto a alguna guía humana. Algunos ‘chatbots’, como el galardonado “Mitsuku”, pueden mantener, inclusive, niveles de conversación aceptables.
Aunque la mayoría de los bots políticos en estos días aún están crudos, una mirada a la historia reciente sugiere que ya han comenzado a tener un impacto en el discurso político. En los días posteriores a la desaparición del columnista Jamal Khashoggi, las redes sociales en idioma árabe estallaron en apoyo al príncipe heredero saudí Mohammed bin Salman, quien es acusado por amplios sectores de ordenar el crimen. En un solo día, la frase “todos confiamos en Mohammed bin Salman” apareció en 250.000 tuits. Con toda probabilidad, la mayoría de estos mensajes fueron generados por ‘chatbots’.
Los ‘chatbots’ no son un fenómeno reciente. Se cree que alrededor de una quinta parte de todos los tuits sobre las elecciones presidenciales del 2016 fueron obra de ‘chatbots’. Y el hecho de que los bots no sean tan inteligentes como nosotros, o que no hayan alcanzado la conciencia y la creatividad esperadas por los puristas de la inteligencia artificial es irrelevante. Lo que importa es su impacto.
A menos que tomemos medidas, los ‘chatbots’ podrían poner en peligro nuestra democracia.
El riesgo más obvio es que seamos desplazados de nuestros propios debates por sistemas que son demasiado rápidos como para mantenerles el paso. ¿Quién se molestaría en unirse a un debate cuando cada contribución se rompe en pedazos en segundos por miles de adversarios digitales?
Un riesgo relacionado es que las personas ricas podrán pagar los mejores ‘chatbots’. Los grupos de interés y las corporaciones prósperas, cuyas opiniones ya disfrutan de un lugar dominante en el discurso público, estarán en mejor posición para aprovechar las ventajas retóricas que ofrecen estas nuevas tecnologías.
Y en un mundo donde, cada vez más, la única forma de entablar un debate con los ‘chatbots’ sea mediante el despliegue de otros ‘chatbots’, preocupa que en el largo plazo quedemos excluidos de nuestra propia fiesta. La automatización total del debate sería un desafortunado desarrollo en la historia de la democracia.
Reconociendo la amenaza, algunos grupos han comenzado a actuar. Los innovadores de Robhat Labs, por ejemplo, ofrecen aplicaciones para revelar quién es humano y quién no. Y las propias plataformas de redes sociales –como Twitter y Facebook– se han vuelto más efectivas en la detección de bots. Pero se necesita más.
Un enfoque directo sería la prohibición total de los robots en los foros donde tiene lugar un importante discurso político. La Ley de Divulgación y Responsabilidad del Bot, presentada por la senadora demócrata Dianne Feinstein, propone algo similar. De aprobarse, la norma enmendaría el Acta de Campaña Electoral Federal (1971) para prohibir que los candidatos y los partidos utilicen bots con la intención de suplantar la actividad humana en el debate público. También impediría que los PAC, las corporaciones y las organizaciones laborales utilicen bots para difundir mensajes que abogan por algún candidato.
Un método más sutil sería la identificación obligatoria: exigir que todos los ‘chatbots’ se registren públicamente y que, en todo momento, se identifiquen como ‘chatbots’ y revelen quiénes son sus propietarios y controladores humanos. Una vez más, la Ley de Divulgación y Responsabilidad del Bot podría cumplir parcialmente con ese objetivo, al exigir a la Comisión Federal de Comercio que obligue a las plataformas de redes sociales a introducir políticas que exijan a los usuarios proporcionar un “aviso claro y notorio” de los bots. La responsabilidad principal estaría en las plataformas.
También deberíamos estar explorando otras formas creativas de regulación. ¿Por qué no introducir una regla para que los robots puedan realizar solo un número específico de contribuciones en línea por día?
Los métodos para regular los robots deben ser más sólidos que los que aplicamos a las personas. No puede haber medias tintas cuando la democracia está en juego.
–Glosado y editado–
© The New York Times.