En un resultado neto positivo para los investigadores que prueban la seguridad de los sistemas y modelos de IA, la Biblioteca del Congreso de EE. UU. ha dictaminado que ciertos tipos de actividad ofensiva, como la inyección rápida y la elusión de límites de tasas, no violan la Ley de Derechos de Autor del Milenio Digital ( DMCA). , una ley utilizada en el pasado por empresas de software para combatir investigaciones de seguridad no deseadas.
Sin embargo, la Biblioteca del Congreso se negó a crear una exención para los investigadores de seguridad según las disposiciones de la Ley de Uso Justo, argumentando que una exención no sería suficiente para proporcionar un refugio seguro para los investigadores de seguridad.
En general, la actualización de tres años del marco legal en torno a los derechos de autor digitales favorece a los investigadores de seguridad, al igual que tener directrices más claras sobre lo que está permitido, dice el fundador Casey Ellis y asesor del servicio de pruebas de penetración de colaboración colectiva BugCrowd.
«Aclarar cosas como esta, y simplemente asegurarse de que los investigadores de seguridad estén operando en un entorno tan claro y de apoyo como sea posible, es algo importante a mantener, independientemente de la tecnología», afirma. «De lo contrario, terminarás en una posición en la que las personas propietarias del [large language models]o las personas que los implementan, son quienes terminan teniendo todo el poder para controlar si se realiza o no una investigación de seguridad, lo que resulta en un resultado de seguridad deficiente para el usuario.
Los investigadores de seguridad se benefician cada vez más de protecciones ganadas con tanto esfuerzo contra demandas y juicios por realizar investigaciones legítimas. En 2022, por ejemplo, el Departamento de Justicia de Estados Unidos declaró que sus fiscales no acusarían a los investigadores de seguridad con violación de la Ley de Abuso y Fraude Informático (CFAA) si no causaron daño y continuaron la investigación de buena fe. Las empresas que demandan a los investigadores suelen ser avergonzadas y grupos como el Fondo de Investigación Legal de Seguridad y el Consejo de Política de Hacking proporcionando recursos y defensas adicionales a los investigadores de seguridad bajo la presión de las grandes empresas.
En un artículo publicado en su sitio, el Centro de Política y Derecho de Ciberseguridad llamó al aclaraciones de la Oficina de Derechos de Autor de EE. UU. “una victoria parcial” para los investigadores de seguridad: ofrece más claridad pero no refugio. La Oficina de Derechos de Autor está organizada bajo la Biblioteca del Congreso.
«La falta de protección legal para la investigación de IA ha sido confirmada por agencias reguladoras y policiales como la Oficina de Derechos de Autor y el Departamento de Justicia, pero la investigación de buena fe sobre IA sigue careciendo de un puerto seguro legal claro». el grupo declaró. «Otras técnicas de investigación de la confiabilidad de la IA aún pueden dar lugar a responsabilidad según la Sección 1201 de la DMCA, así como otras leyes antipiratería como la Ley de Abuso y Fraude Informático».
El nuevo y valiente mundo legal
La rápida adopción de sistemas y algoritmos de inteligencia artificial generativos basados en big data se ha convertido en una gran disrupción en la industria de la tecnología de la información. Dado que muchos grandes modelos lingüísticos (LLM) dependen de la ingestión masiva de información protegida por derechos de autor, el marco legal para los sistemas de IA comenzó sobre una base débil.
Para los investigadores, la experiencia pasada proporciona ejemplos aterradores de lo que podría salir mal, dice Ellis de BugCrowd.
«Dado que se trata de un espacio muy nuevo, y algunos de los límites son mucho más confusos que en la informática tradicional, la falta de claridad siempre se convierte en un factor disuasivo», afirma. «Para las personas que son conscientes de esto, y muchos investigadores de seguridad están muy preocupados por asegurarse de no infringir la ley al realizar su trabajo, esto ha generado un montón de preguntas por parte de la comunidad».
El Centro de Políticas y Leyes de Ciberseguridad y el Consejo de Política de Hacking propusieron que los equipos rojos y las pruebas de penetración destinadas a probar la seguridad de la IA estén exentos de la DMCA, pero el Bibliotecario del Congreso recomendó rechazar la exención propuesta.
La Oficina de Derechos de Autor «reconoce la importancia de la investigación de la confiabilidad de la IA como una cuestión de política y señala que el Congreso y otras agencias pueden estar en la mejor posición para actuar sobre esta cuestión emergente». la entrada del registro indicadaañadiendo que «los efectos negativos identificados por los defensores surgen del control de plataformas en línea por parte de terceros y no del funcionamiento de la Sección 1201, por lo que una exención no aliviaría sus preocupaciones».
no hay vuelta atrás
A medida que las grandes empresas invierten sumas masivas en el entrenamiento de los próximos modelos de IA, los investigadores de seguridad podrían verse atacados por algunos bolsillos bastante profundos. Afortunadamente, la comunidad de seguridad ha establecido prácticas bastante bien definidas para manejar las vulnerabilidades, dice Ellis de BugCrowd.
«La idea de que la investigación en seguridad es algo bueno es ahora bastante común… por lo que el primer instinto de las personas que implementan nueva tecnología es no experimentar una explosión masiva como la que hemos experimentado en el pasado», dijo, «Cartas de cese y desistimiento y. [other communications] que iba y venía mucho más silencioso y el volumen se mantenía bastante bajo. »
En muchos sentidos, los evaluadores de penetración y los equipos rojos se centran en los problemas equivocados. El mayor desafío en este momento es superar la exageración y la desinformación sobre las capacidades y la seguridad de la IA, dice Gary McGraw, fundador del Instituto Berryville de Aprendizaje Automático (BIML) y experto en seguridad de software. El equipo rojo consiste en detectar problemas, no en adoptar un enfoque proactivo en materia de seguridad, afirma.
«Tal como están diseñados hoy, los sistemas de aprendizaje automático tienen fallas que pueden quedar expuestas mediante piratería, pero que no pueden solucionarse mediante piratería», explica.
Las empresas deberían esforzarse por encontrar formas de producir LLM que no carezcan de una presentación objetiva (es decir, que no «alucinen») o que sean vulnerables a una inyección rápida, dice McGraw.
«No vamos a hacer un equipo rojo ni realizar pruebas de penetración para garantizar que la IA sea confiable: la forma real de hacer que el aprendizaje automático sea seguro es en el nivel de diseño, con un fuerte enfoque en los datos de entrenamiento, la representación y la evaluación», afirma. «Las pruebas de penetración tienen un gran atractivo sexual pero una eficacia limitada».