
Más de 350 expertos en tecnología, investigadores de IA y líderes de la industria han firmado el Declaración de riesgo de IA publicado por el Centro de seguridad de IA la semana pasada. Esta es una advertencia muy breve y sucinta de una oración para todos nosotros:
Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear.
Entonces, los expertos en IA, incluidos los ingenieros de campo de Google y Microsoft que están lanzando activamente IA al mundo, creen que la IA tiene el potencial de ser un evento de extinción global en la misma línea que una guerra nuclear. Sí.
Admito que pensé lo mismo que mucha gente cuando leyó esa declaración por primera vez: es un montón de mierda. Sí, la IA tiene muchos problemas y creo que es un poco pronto para apoyarse en ella tanto como lo hacen algunas empresas de tecnología e información, pero ese tipo de hipérbole es simplemente estúpido.
Luego investigué un poco sobre Bard Beta Lab AI y encontré varias formas en que la IA ya es dañina. Algunos de los más vulnerables de la sociedad están aún más en riesgo debido a la IA generativa y la estupidez de estas computadoras inteligentes.
La Asociación Nacional de Trastornos de la Alimentación despidió a los operadores de su línea de ayuda el 25 de mayo de 2023 y los reemplazó con Tessa the ChatBot. Los trabajadores estaban en proceso de sindicarse, pero NEDA dice que «este era un cambio que se debía desde hace mucho tiempo y que AI puede servir mejor a las personas con trastornos alimentarios» y no tuvo nada que ver con seis empleados pagados y varios voluntarios que intentaron sindicarse.
El 30 de mayo de 2023, NEDA deshabilitado Tessa el ChatBot porque ofreció consejos nefastos a personas con trastornos alimentarios graves. Oficialmente, NEDA está «preocupada y está trabajando con el equipo de tecnología y el equipo de investigación para investigar más a fondo este asunto; este lenguaje va en contra de nuestras políticas y creencias fundamentales como organización para los trastornos mentales».
En los Estados Unidos, 30 millones de personas sufren trastornos alimentarios graves y 10.200 morirán cada año como resultado directo de estos trastornos. Uno cada hora.
Luego tenemos a Koko, una organización de salud mental sin fines de lucro que usó la IA como un experimento en adolescentes suicidas. Sí, lo leiste bien.
Los usuarios en riesgo fueron dirigidos al sitio web de Koko desde las redes sociales, donde cada uno fue colocado en uno de dos grupos. A un grupo se le dio un número de teléfono a una línea de ayuda de crisis real donde, con suerte, podrían encontrar la ayuda y el apoyo que necesitaban.
El otro grupo tuvo la experiencia de Koko en la que pudieron realizar un cuestionario y se les pidió que identificaran las cosas que desencadenaron sus pensamientos y lo que estaban haciendo para lidiar con ellos.
Cuando terminaron, la IA les preguntó si revisarían las notificaciones de sus teléfonos al día siguiente. Si la respuesta era sí, eran empujados a una pantalla que decía «¡Gracias por eso! ¡Aquí hay un gato!» Por supuesto, había una foto de un gato, y aparentemente Koko y el investigador de IA que ayudaron a crear este pensamiento que mejorará las cosas de alguna manera.
No estoy calificado para hablar sobre la ética de situaciones como esta en las que la IA se usa para proporcionar diagnósticos o ayudar a las personas que luchan con problemas de salud mental. Soy un experto en tecnología que se centra principalmente en los teléfonos inteligentes. Sin embargo, la mayoría de los expertos humanos están de acuerdo en que la práctica está plagada de problemas. Sé que el tipo incorrecto de «ayuda» puede empeorar una mala situación y lo hará.
Si tiene problemas de salud mental o necesita ayuda, llame o envíe un mensaje de texto al 988 para hablar con un ser humano que pueda ayudarlo.
Este tipo de historias dicen dos cosas: la IA es muy problemática cuando se usa en lugar de personas capacitadas en una crisis, y las personas reales que se supone que están mejor informadas también pueden ser estúpidas.
La IA en su estado actual no está lista para ser utilizada de esta forma. Ni siquiera cerca. Emily M. Bender, profesora de la Universidad de Washington, hace un punto importante en una declaración a vice:
«Los modelos de lenguaje grandes son programas que pueden generar texto que suene plausible dados sus datos de entrenamiento y un indicador de entrada. No tienen empatía ni comprensión del lenguaje que producen, ni comprensión de la situación en la que se encuentran. Pero el texto que producir sonidos plausibles y, por lo tanto, es probable que las personas le atribuyan un significado. Lanzar algo como esto en situaciones delicadas es correr riesgos desconocidos.
Quiero negar lo que veo y leo para poder pretender que las personas no están tomando atajos o tratando de ahorrar dinero usando la IA de una manera tan dañina. La sola idea me enferma. Pero no puedo porque la IA sigue siendo una tontería y aparentemente mucha gente también quiere usarla.
Tal vez la idea de un evento de extinción masiva impulsado por IA no sea tan descabellada después de todo.