Ya es hora de una mayor transparencia en la IA

Pero lo que realmente me llama la atención es la medida en que Meta abre sus puertas. Esto permitirá que la comunidad de IA en general descargue el modelo y lo modifique. Esto podría ayudar a que sea más seguro y más eficiente. Y sobre todo, esto podría demostrar los beneficios de la transparencia sobre el secreto cuando se trata del funcionamiento interno de los modelos de IA. No podría ser más oportuno o más importante.

Las empresas de tecnología se apresuran a lanzar sus modelos de IA en la naturaleza, y estamos viendo la IA generativa integrada en más y más productos. Pero los modelos más potentes, como el GPT-4 de OpenAI, son observados de cerca por sus creadores. Los desarrolladores e investigadores pagan por el acceso limitado a estos modelos a través de un sitio web y no conocen los detalles de su funcionamiento interno.

Esta opacidad podría generar problemas en el futuro, como señala una noticia, artículo no revisado por pares que causó revuelo la semana pasada. Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que GPT-3.5 y GPT-4 se desempeñaron peor en la resolución de problemas matemáticos, la respuesta a preguntas delicadas, la generación de código y el razonamiento visual que meses antes.

La falta de transparencia en estos modelos hace que sea difícil decir exactamente por qué podría ser esto, pero de cualquier manera, los resultados deben tomarse con pinzas, Arvind Narayanan, profesor de informática en Princeton. escribiendo en su valoración. Es más probable que sean causados ​​​​por las «peculiaridades de evaluación de los autores» que por la evidencia de que OpenAI ha empeorado los modelos. Piensa que los investigadores no tuvieron en cuenta que OpenAI modificó los modelos para que funcionaran mejor, lo que involuntariamente hizo que algunas técnicas de aviso dejaran de funcionar como en el pasado.

Esto tiene serias implicaciones. Las empresas que han creado y optimizado sus productos para que funcionen con alguna iteración de los modelos de OpenAI podrían verlos «100%» repentinamente desmoronarse y romperse, dice Sasha Luccioni, investigadora de inteligencia artificial en la startup Hugging Face. Cuando OpenAI refina sus modelos de esta manera, los productos que se crearon con indicaciones muy específicas, por ejemplo, pueden dejar de funcionar como lo hacían antes. Los modelos cerrados carecen de responsabilidad, agrega. «Si tienes un producto y cambias algo en él, se supone que debes decírselo a tus clientes».

Un modelo abierto como LLaMA 2 indicará al menos claramente cómo la empresa diseñó el modelo y qué técnicas de formación utilizó. A diferencia de OpenAI, Meta compartió la receta completa de LLaMA 2, incluidos detalles sobre cómo se entrenó, qué hardware se usó, cómo se anotaron los datos y qué técnicas se usaron para mitigar el daño. Las personas que investigan y construyen productos sobre el modelo saben exactamente en qué están trabajando, dice Luccioni.

«Una vez que tiene acceso al modelo, puede hacer todo tipo de experimentos para asegurarse de obtener un mejor rendimiento o menos sesgo, o lo que sea que esté buscando», dice.

En última instancia, el debate abierto versus cerrado sobre la IA se reduce a quién decide. Con modelos abiertos, los usuarios tienen más poder y control. Con modelos cerrados, estás a merced de su creador.

Para una gran empresa como Meta, lanzar un modelo de IA tan abierto y transparente parece un posible punto de inflexión en la fiebre del oro generativa de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *