El ex líder de preparación de OpenAI AGI explica dónde están las cosas

El ex líder de preparación de OpenAI AGI explica dónde están las cosas

  • Miles Brundage dejó OpenAI para dedicarse a la investigación de políticas en el sector sin fines de lucro.
  • Brundage fue una figura clave en la investigación de AGI en OpenAI.
  • OpenAI se ha enfrentado a salidas debido a preocupaciones sobre su enfoque de la investigación de seguridad.

Hay muchos incertidumbre sobre la inteligencia artificial general, una forma aún hipotética de Una IA que puede razonar tan bien (o incluso mejor) que los humanos.

Según investigadores de vanguardia de la industria, estamos a punto de lograrlo en los próximos años.

Miles Brundage, exjefe de investigación de políticas y preparación de AGI en OpenAI, dijo a Hard Fork, un podcast de tecnología, que en los próximos años la industria desarrollará «sistemas que básicamente pueden hacer todo lo que una persona puede hacer de forma remota en una computadora». “Esto incluye usar el mouse y el teclado o incluso parecer un “humano en un chat de video”.

“Los gobiernos deberían pensar en lo que esto significa en términos de qué sectores gravar y en qué educación invertir”, afirmó.

El cronograma para que empresas como OpenAI creen máquinas capaces de inteligencia artificial general es un debate casi obsesivo entre todos los que siguen la industria, pero algunos de los nombres más influyentes en el campo creen que debería suceder dentro de unos pocos años. John Schulman, cofundador de OpenAI e investigador científico que dejó OpenAI en agosto, también dijo que faltan algunos años para AGI. Dario Amodei, director ejecutivo de Anthropic, competidor de OpenAI, cree que una iteración podría ocurrir ya en 2026.

Brundage, quien anunció que dejaría OpenAI el mes pasado después de poco más de seis años en la compañía, supuestamente comprende tan bien como cualquiera la línea de tiempo de OpenAI.

Durante su permanencia en la empresa, asesoró a sus líderes y miembros de la junta directiva sobre cómo prepararse para la AGI. También ha sido responsable de algunas de las mayores innovaciones en investigación de seguridad de OpenAI, incluido el equipo rojo externo, que implica incorporar expertos externos para buscar problemas potenciales en los productos de la empresa.

OpenAI ha visto una serie de salidas de varios investigadores y ejecutivos de seguridad de alto nivel, algunos de los cuales han expresado su preocupación sobre el equilibrio de la empresa entre el desarrollo de AGI y la seguridad.

Brundage dijo que su partida, al menos, no estuvo motivada por preocupaciones de seguridad específicas. «Estoy convencido de que no existe ningún otro laboratorio que esté completamente al tanto de todo», dijo a Hard Fork.

En el anuncio inicial de su partida, que publicó en X, dijo que quería tener un mayor impacto como investigador de políticas o defensor en el sector sin fines de lucro.

Le dijo a Hard Fork que mantiene su decisión y explicó por qué se fue.

«La primera es que no he podido trabajar en todo lo que quería, que a menudo estaba relacionado con cuestiones intersectoriales. Entonces, no solo qué estamos haciendo internamente en OpenAI, sino también qué regulaciones deberían existir, etc. «, dijo .

«La segunda razón es que quiero ser independiente y menos parcial, por lo que no quería que mis opiniones fueran descartadas, correcta o incorrectamente, porque son sólo exageraciones corporativas».