Varios investigadores, tecnólogos y otros expertos conocidos están pidiendo a OpenAI que deje de entrenar a ChatGPT, una plataforma de IA.
Un grupo de reconocidos expertos en inteligencia artificial, incluidos Elon Musk, Steve Wozniak y Andrew Yang, firmaron una carta abierta en la que solicitan una prohibición de seis meses para hacer que los sistemas de inteligencia artificial sean más potentes que GPT-4, la última versión de la herramienta de compilación que fue lanzado en noviembre de 2022.
Las personas que escribieron la carta dicen que los «gobiernos» deberían involucrarse si la empresa privada no deja de entrenar su IA después de que se implemente GPT4.
«Hacemos un llamado a todos los laboratorios de IA para que suspendan de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si dicha pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, decía la carta.
¿Quién firma la carta?
Ahora hay casi 1.100 firmas en la carta. Sin embargo, algunas personas cuestionaron si la carta fue firmada o no por todas las personas conocidas que la firmaron. Algunas de estas personas incluyen al ganador del Premio Turing, Yoshua Bengio, el CEO de Stability AI, Stuart Russell, Emad Mostaque y el cofundador de Ripple, Chris Larsen.
La portavoz del proyecto dijo que las primeras firmas se habían verificado dos veces, pero que aún no se habían mostrado las identidades porque había interés.
Anthony Aguirre, vicepresidente del Future of Life Institute, dijo que “todos los signatarios principales de la lista han sido verificados de forma independiente. Hacer esto para toda la lista (que ahora supera con creces los 30.000) está más allá de nuestra capacidad.
Una nota en el sitio web dice que debido a la gran demanda, todavía estamos recolectando firmas, pero hemos dejado de ponerlas en la carta para que nuestros procesos de selección puedan ponerse al día.
Musk fue una de las personas que iniciaron OpenAI. Dejó la junta en 2018, pero se dice que invirtió $100 millones en el proyecto.
Riesgos graves de IA
Desde el lanzamiento de GPT4 hace dos semanas, ha habido entusiasmo y miedo. Algunas personas lo han llamado más importante que la llegada del fuego, y otros temen que si no se detiene, podría destruir a la humanidad.
La carta dice que el enfoque debe estar en hacer que los sistemas existentes sean más precisos, seguros, transparentes, robustos y confiables mientras se acelera el desarrollo de los sistemas de gobierno de IA. De hecho, se dice que los sistemas de IA con inteligencia competitiva humana plantean graves riesgos para la sociedad y la humanidad.
«Él dijo: ‘Con IA, las personas pueden tener un futuro brillante. Podemos hacer eso. Tengamos un largo verano de IA y no nos apresuremos al otoño sin estar preparados. Otras tecnologías que podrían ser muy dañinas para la civilización han sido puestas en espera. .
Musk escribió en respuesta a un tweet sobre la petición de que los principales desarrolladores de IA no escucharán esta advertencia, pero al menos se dijo.
OpenAI aún no ha dicho nada en respuesta a una solicitud de comentarios.
Fuente de contenido: descifrar