La ansiedad sobre los peligros de la IA es un problema muy de 2023, alimentado por la rápida adopción de herramientas como generadores de texto a imagen y chatbots realistas.
La buena noticia, para aquellos propensos a preocuparse, es que puede organizar su incomodidad en tres categorías: riesgos de IA a corto plazo, riesgos a mediano plazo y riesgos a largo plazo. Así lo hace Dario Amodei, co-fundador y CEO de Anthropic.
Amodei debería saberlo. En 2020, dejó OpenAI, el creador de ChatGPT, para cofundar Anthropic con el principio de que los grandes modelos de lenguaje tienen el poder de volverse exponencialmente más poderosos cuanto más poder computacional se les dedique, y que en consecuencia, estos modelos deben ser diseñado desde cero con la seguridad en mente. En mayo, la empresa recaudó $ 450 millones en fondos.
Hablando en la conferencia Fortune Brainstorm Tech en Deer Valley, Utah, el lunes, Amodei presentó su modelo de miedo de tres niveles en respuesta a una pregunta de Jeremy Kahn de Fortune sobre los riesgos existenciales que plantea la IA. Así es como Amodei se preocupa por la IA:
- Riesgos a corto plazo: El tipo de problemas que enfrentamos hoy, “en torno a cosas como prejuicios y desinformación”.
- Riesgos a medio plazo«Creo que en unos años, a medida que los modelos mejoren en cosas como ciencia, ingeniería, biología, puedes hacer cosas realmente malas con los modelos que no podrías haber hecho sin ellos».
- Riesgos a largo plazo«A medida que avanzamos hacia modelos que tienen la propiedad clave de la agencia, lo que significa que no solo producen texto, sino que pueden hacer cosas, ya sea con un bot o en Internet, entonces creo que debemos preocuparnos de que se vuelvan demasiado autosuficientes y es difícil detener o controlar lo que están haciendo Y creo que el final de eso es la preocupación por el riesgo existencial.
Los modelos de lenguaje grande son increíblemente versátiles. Se pueden aplicar a una gran cantidad de usos y escenarios: «La mayoría de ellos son buenos. Pero hay tipos malos al acecho y tenemos que encontrarlos y prevenirlos», dijo Amodei. .
No debemos «entrar en pánico» por el escenario de riesgo existencial a largo plazo, aconsejó. «No sucederán mañana, pero a medida que continuamos con la IA exponencial, debemos comprender que esos riesgos están al final de esa exponencial».
Pero cuando Kahn le preguntó si en última instancia es optimista o pesimista sobre la IA, el CEO de Anthropic ofreció una respuesta ambivalente que será conmovedora o aterradora, dependiendo de si usted es un tipo de vaso medio lleno o medio vacío. persona: «Supongo que las cosas estarán bien. Pero existe una posibilidad, tal vez del 10 % o del 20 %, de que salga mal, y depende de nosotros asegurarnos de que eso no suceda.