OpenAI eliminó accidentalmente los resultados del entrenamiento de ChatGPT cuando los abogados buscaron infracción de derechos de autor

OpenAI eliminó accidentalmente los resultados del entrenamiento de ChatGPT cuando los abogados buscaron infracción de derechos de autor

Los New York Times Y Noticias diarias demandó a OpenAI y a su inversor Microsoft bajo sospecha de que ChatGPT fue entrenado en sus obras protegidas por derechos de autor. Resulta que las búsquedas de datos de entrenamiento de los abogados fueron borradas la semana pasada por los ingenieros de OpenAI, probablemente por accidente.

A los abogados del New York Times se les ha suprimido su posible evidencia contra OpenAI

Kyle Wiggers escribe para TechCrunch:

A principios de este otoño, OpenAI acordó proporcionar dos máquinas virtuales para que los abogados del Times y Daily News pudieran buscar su contenido protegido por derechos de autor en sus conjuntos de capacitación de IA… En una carta, los abogados de los editores dicen que ellos y los expertos que contrataron han gastado más más de 150 horas desde el 1 de noviembre investigando los datos de entrenamiento de OpenAI.

Pero el 14 de noviembre, los ingenieros de OpenAI borraron todos los datos de búsqueda de editores almacenados en una de las máquinas virtuales, según la carta antes mencionada, presentada el miércoles por la noche en el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York.

La carta antes mencionada fue publicado en línea aquí para que todos puedan leerlo.

Parece que después de que los abogados del New York Times dedicaron mucho tiempo a recopilar los datos del conjunto de entrenamiento de ChatGPT, OpenAI borró su investigación.

La carta afirma que OpenAI pudo recuperar gran parte de los datos, pero sólo en una forma que los hizo inutilizables en procedimientos legales. Por lo tanto, en este caso no se puede implementar contra OpenAI y el trabajo costoso y que requiere mucho tiempo comienza de nuevo.

Tomar de 9to5Mac

Desafortunadamente, los datos de entrenamiento utilizados por varias empresas de IA siguen estando rodeados de mucha vaguedad. ¿No todos los editores tienen los recursos para emprender acciones legales contra los gigantes tecnológicos, solo para que los ingenieros de OpenAI eliminen accidentalmente su trabajo? Esta es una mala visión general, por decir lo menos.

¿Qué opinas de esta historia? Háganos saber en los comentarios.

Los mejores regalos navideños para dispositivos Apple

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. Más.