OpenAI no ha revelado una violación de seguridad en 2023 – NYT

OpenAI did not reveal security breach in 2023 – NYT

OpenAI experimentó una violación de seguridad en 2023, pero no reveló el incidente fuera de la empresa, informó el New York Times. 4 de julio.

Según se informa, los ejecutivos de OpenAI revelaron el incidente internamente durante una reunión en abril de 2023, pero no lo revelaron públicamente porque el atacante no accedió a la información del cliente o socio.

Además, los líderes no vieron el incidente como una amenaza a la seguridad nacional porque vieron al atacante como un individuo sin vínculos con ningún gobierno extranjero. No informaron del incidente al FBI ni a otras agencias policiales.

Según se informa, el atacante accedió a los sistemas de correo electrónico internos de OpenAI y robó información sobre los diseños de tecnología de inteligencia artificial de la empresa de conversaciones entre empleados en un foro en línea. No accedió a los sistemas donde OpenAI “aloja y construye su inteligencia artificial”, ni al código.

El New York Times citó como fuentes a dos personas familiarizadas con el asunto.

Un ex empleado expresó su preocupación

El New York Times también hizo referencia a Leopold Aschenbrenner, un ex investigador de OpenAI que envió un memorando a los directores de OpenAI después del incidente y pidió medidas para evitar que China y países extranjeros roben secretos comerciales.

Según el New York Times, Aschenbrenner aludió al incidente en un podcast reciente.

La representante de OpenAI, Liz Bourgeois, dijo que la compañía entendía las preocupaciones de Aschenbrenner y expresó su apoyo para desarrollar AGI de forma segura, pero cuestionó algunos detalles. Ella dijo:

“No estamos de acuerdo con muchos [Aschenbrenner’s claims] … Esto incluye sus caracterizaciones de nuestra seguridad, incluido este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa. »

Aschenbrenner dijo que OpenAI lo despidió por revelar otra información y por razones políticas. Bourgeois dijo que las preocupaciones de Aschenbrenner no llevaron a su salida.

Matt Knight, jefe de seguridad de OpenAI, destacó los compromisos de seguridad de la empresa. Le dijo al New York Times que la empresa «comenzó a invertir en seguridad años antes que ChatGPT». Admitió que el desarrollo de la IA «tiene ciertos riesgos y debemos comprenderlos».

El New York Times reveló un aparente conflicto de intereses al informar que estaba demandando a OpenAI y Microsoft por supuesta infracción de derechos de autor sobre su contenido. OpenAI cree que el caso carece de fundamento.

Mencionado en este artículo.