Superinteligencia segurala empresa cofundada por un veterano de OpenAI Ilya Sutskeversupuestamente recaudó mil millones de dólares.
La empresa planea utilizar los fondos para aumentar su potencia informática y contratar talento, dijo la dirección a Reuters en un comunicado. entrevista Safe Superintelligence (SSI) se negó a compartir su valoración, pero fuentes dijeron a Reuters que la empresa estaba valorada en 5.000 millones de dólares.
Los inversores en esta ronda incluyeron firmas líderes de capital de riesgo como Andreessen Horowitz y Sequoia, así como NFDG, una sociedad de inversión dirigida en parte por el director ejecutivo de SSI, Daniel Gross.
“Para nosotros es importante estar rodeados de inversores que comprendan, respeten y apoyen nuestra misión, que es pasar directamente a la superinteligencia segura y, en particular, dedicar algunos años a I+D de nuestro producto antes de lanzarlo al mercado. ”, dijo Gross a Reuters.
Mientras tanto, Sutskever, cofundador de OpenAI y científico jefe de la empresa, dijo que el nuevo proyecto tenía sentido porque «identificó una montaña que es un poco diferente de aquella en la que estaba trabajando».
El año pasado, Sutskever formó parte de la junta directiva de OpenAI que votó a favor de destituir al director ejecutivo Sam Altman debido a una «falla de comunicación», pero rápidamente cambió de opinión y se unió a una campaña dirigida por los empleados para la reinstalación de Altman.
Sin embargo, como señala Reuters, el incidente «disminuyó» el papel de Sutskever dentro de OpenAI. Fue destituido de su puesto en la junta y dimitió en mayo. Después de su partida, la empresa disolvió su equipo de “superalineación” centrado en la seguridad de la IA.
Sutskever anunció el lanzamiento de SSI en junio, diciendo que la compañía se centraría únicamente en desarrollar –como su nombre indica– superinteligencia segura sin la presión que conllevan los intereses comerciales.
Como escribió PYMNTS en ese momento, esto una vez más generó un debate sobre la posibilidad de tal hazaña. Algunos expertos cuestionan la viabilidad de crear una IA superinteligente, dadas las limitaciones de los sistemas de IA y los obstáculos para garantizar su seguridad.
«Los críticos del objetivo de la superinteligencia señalan las limitaciones actuales de los sistemas de IA que, a pesar de sus impresionantes capacidades, todavía luchan por realizar tareas que requieren razonamiento de sentido común y comprensión contextual», dice el informe. “Argumentan que el cambio de una IA limitada, que sobresale en tareas específicas, a una inteligencia general que supera las capacidades humanas en todas las áreas no es simplemente una cuestión de aumentar la potencia informática o los datos. »