Los gigantes tecnológicos piden una pausa en los experimentos de IA, por temor a ‘riesgos profundos para la sociedad’: ScienceAlert

El magnate multimillonario Elon Musk y una gran cantidad de expertos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA) para dar tiempo a garantizar que sean seguros.

A carta abiertafirmado por más de 1,000 personas hasta la fecha, incluido Steve Wozniak, cofundador de Musk y Apple, fue motivado por el lanzamiento de GPT-4 por OpenAI respaldado por Microsoft.

La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de las indicaciones más breves.

“Los sistemas de IA con inteligencia humana competitiva pueden plantear serios riesgos para la sociedad y la humanidad”, dijo el carta abierta titulado «Pausar experimentos gigantes de IA».

“Los sistemas de inteligencia artificial potentes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos son manejables”, dijo.

Musk fue uno de los primeros inversores en OpenAI, pasó años en su directorio y su empresa de automóviles, Tesla, está desarrollando sistemas de inteligencia artificial para ayudar a potenciar su tecnología de conducción autónoma, entre otras aplicaciones.

La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI como el jefe de Stability AI, Emad Mostaque.

Durante una conferencia de prensa virtual en Montreal, el pionero canadiense de la IA, Yoshua Bengio, también signatario, advirtió que «la sociedad no está preparada» para esta poderosa herramienta y su potencial abuso.

«Reduzcamos la velocidad. Asegurémonos de desarrollar mejores salvaguardas», dijo, y pidió una discusión internacional exhaustiva sobre la IA y sus implicaciones, «como hicimos con la energía nuclear y las armas nucleares».

«Digno de confianza y leal»

La carta citado de un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros».

«Estamos de acuerdo. Ese punto es ahora», los autores de la opluma carta escribió.

«Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que suspendan de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4».

Hicieron un llamado a los gobiernos para que intervengan e impongan una moratoria si las empresas no logran llegar a un acuerdo.

Los seis meses deben usarse para desarrollar protocolos de seguridad, sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, «confiables y leales».

La carta no detalla los peligros revelados por GPT-4.

Pero los investigadores, incluido Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser súper propagadores de información errónea.

Sin embargo, el autor Cory Doctorow comparado la industria de la IA a un sistema de «bomba y descarga», argumentando que el potencial y la amenaza de los sistemas de IA se han exagerado enormemente.

© Agencia France-Presse

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *