Elon Musk: sus polémicas declaraciones sobre Bill Gates y la Inteligencia Artificial | ¿Qué es lo que dijo el dueño de Twitter en relación a este tipo de tecnología? En esta nota te contamos todo lo que debes saber al respecto. (Archivo)
Elon Musk: sus polémicas declaraciones sobre Bill Gates y la Inteligencia Artificial | ¿Qué es lo que dijo el dueño de Twitter en relación a este tipo de tecnología? En esta nota te contamos todo lo que debes saber al respecto. (Archivo)
Redacción EC

Nuevos comentarios de , uno de los personajes más mediáticos de , salieron a la luz en relación a , creador de y la , la novedad de este año 2023 que ha puesto en alerta a varias de las mentes más brillantes del planeta por su alto peligro. ¿Qué es lo que dijo el dueño de Twitter en relación a este tipo de tecnología? En esta nota te contamos todo lo que debes saber al respecto.

LAS POLÉMICA DECLARACIONES DE ELON MUSK SOBRE BILL GATES Y LA INTELIGENCIA ARTIFICIAL

Primero que nada, es importante tener en cuenta las declaraciones que dio el creador de Microsoft sobre la Inteligencia Artificial.

“Mi interés en la IA se remonta a mis primeros días de aprendizaje sobre software. La idea de que los computadores vean, escuchen y escriban es la búsqueda a largo plazo de toda la industria. Y, cuando estas técnicas de aprendizaje automático comenzaron a funcionar muy bien, me fascinó saber cuántos inventos más necesitaríamos antes de que la IA fuera realmente inteligente”, señaló Bill Gates sobre el lanzamiento del Chat GPT. Y agregó que “la robotización de las fábricas se producirá en los próximos cinco a diez años”.

MIRA: ¿A qué hora inician las misas por Domingo de Ramos de la Semana Santa 2023?

Elon Musk se refirió entonces sobre los comentarios de Bill Gates en relación a la Inteligencia Artificial y apuntó directamente contra el fundador de Microsoft.

“Recuerdo las primeras reuniones con Gates. Su comprensión de la IA era limitada. Todavía lo es”, dijo en un tuit que para algunos demostraría lo “furioso” que está con el avance de la tecnología de la Inteligencia Artificial, años después de que él mismo abandonara el proyecto.

LEE: Bachillerato automático permanente: ¿de qué se trata y para quiénes aplica?

Un segundo comentario en relación a este tipo de tecnología demostraría más el sentimiento que guarda el polémico Musk en relación a la prometedora tecnología.

“Uno de los mayores riesgos para el futuro de la civilización es la IA… Es positivo o negativo y tiene una gran promesa, una gran capacidad. Pero también, con ello, viene un gran peligro”.

REVISA: La historia de ‘Kiki’ Camarena, el agente de la DEA asesinado en México hace 38 años y cuyo caso será reabierto

ELON MUSK Y SU ADVERTENCIA SOBRE LA IA

Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido empresario Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con Inteligencia Artificial (IA) muy potente porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.

El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas.

REVISA: Pokémon | ¿Cómo se despidieron Ash y Pikachu de la serie tras 1,200 capítulos?

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

Incluso aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.

Los firmantes enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.

“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Asimismo, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″, dice el comunicado, que pide la intervención de los Gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

ENTÉRATE: ¿Qué enfermedad sufre Selena Gómez?

GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.

El laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”. Este nuevo sistema acepta la recepción tanto de textos e imágenes, y produce texto.

Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales, aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.

La carta abierta propone que, durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.

Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.

Contenido sugerido

Contenido GEC