Los gigantes tecnológicos piden pausar experimentos con IA por temor a “profundos riesgos para la sociedad”

El multimillonario Elon Musk y una serie de expertos pidieron esta semana que se haga una pausa en el desarrollo de potentes sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que son seguros. La carta abierta, firmada hasta ahora por más de 1.000 personas, entre ellas Musk y Steve Wozniak, cofundador de Apple, fue impulsada por el lanzamiento del GPT-4 de la empresa OpenAI, respaldada por Microsoft. La empresa afirma que su último modelo es mucho más potente que la versión anterior, utilizada para ChatGPT, un bot capaz de generar fragmentos de texto a partir de brevísimas instrucciones.
“Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad”, afirma la carta abierta titulada “Pausa a los experimentos gigantes de IA”. “Los sistemas de IA potentes deberían desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”, decía. Musk fue uno de los primeros inversores en OpenAI, formó parte durante años de su consejo de administración y su empresa automovilística Tesla desarrolla sistemas de IA para ayudar a impulsar su tecnología de conducción autónoma, entre otras aplicaciones.
La carta, auspiciada por el Future of Life Institute, financiado por Musk, está firmada por destacados críticos y competidores de OpenAI, como el jefe de Stability AI, Emad Mostaque. El pionero canadiense de la IA Yoshua Bengio, también firmante, advirtió en una rueda de prensa virtual en Montreal “que la sociedad no está preparada” para esta poderosa herramienta, y sus posibles usos indebidos. “Vayamos más despacio. Asegurémonos de que desarrollamos mejores guardarraíles”, dijo, pidiendo un debate internacional exhaustivo sobre la IA y sus implicaciones, “como hemos hecho con la energía nuclear y las armas nucleares.”
La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugería que “en algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas. Estamos de acuerdo. Ese momento es ahora”, escriben los autores de la carta abierta. “Por lo tanto, hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4”.
La misiva también pidió a los gobiernos que intervinieran e impusieran una moratoria si las empresas no accedían, y que la pausa debería utilizarse para desarrollar protocolos de seguridad, sistemas de gobernanza de la IA y reorientar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, “fiables y leales”. La carta no detallaba los peligros revelados por la GPT-4, pero investigadores como Gary Marcus, de la Universidad de Nueva York, firmante de la carta, sostienen desde hace tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser superdifusores de desinformación.
Despues de leer, ¿qué te pareció?
-
1Me gustó
-
-
-
-
1WTF!
-