Por qué la amenaza existencial de la IA puede ser exagerada

En respuesta al reciente testimonio del CEO de OpenAI, Sam Altman, ante el Congreso, se está produciendo una mayor conversación nacional sobre los posibles riesgos existenciales derivados de la inteligencia artificial. Si bien defendió los méritos de la IA y los grandes beneficios que puede traer a la humanidad, Altman también expresó su miedos que la industria de la tecnología podría «causar un daño significativo al mundo», incluso yendo tan lejos como refrendando – aprobando una nueva agencia federal encargada de regular la IA y exigir la concesión de licencias a las empresas de IA. Si bien sus preocupaciones merecen nuestra atención, es esencial contextualizarlas frente a lo que realmente sabemos sobre la IA y los riesgos existenciales, a diferencia de lo que es mera especulación.

Eliezer Yudkowsky, quien hizo la reclamación extraordinaria que «el resultado más probable de construir una inteligencia artificial sobrehumana… es que, literalmente, todos en la Tierra morirán». En general, se piensa que la IA superinteligente significa algo similar a un sistema de IA que supera la inteligencia y las habilidades de los seres humanos más inteligentes en casi todas las áreas.

Sin embargo, en un reciente podcast junto con el economista Russell Roberts, Yudkowsky no pudo proporcionar un mecanismo coherente detrás de su escandalosa afirmación. En otras palabras, no pudo ofrecer ninguna descripción en un lenguaje sencillo de cómo el mundo va desde los chatbots que responden preguntas en Internet hasta, literalmente, el fin de la raza humana. Incluso profundizando en los argumentos planteados por los pesimistas de IA más previsores, uno puede extraer razones para el optimismo en lugar de la aprensión.

Un ejemplo ilustrativo es el concepto de «convergencia instrumental«, que es la idea de que hay metas intermedias que una IA podría establecer para alcanzar una meta terminal que los humanos programan para ella. Por ejemplo, una IA responsable de producir widgets podría decidir que acumular dinero es la estrategia más efectiva para lograrlo. objetivo, ya que el dinero le permite comprar fábricas, contratar trabajadores, etc. Esta noción sugiere que puede haber una tendencia general de las IA superinteligentes a converger en estrategias similares a pesar de que las IA en general tienen una amplia gama de objetivos finales.

Los críticos de la IA utilizan con frecuencia el ejemplo de las IA que se esfuerzan por acumular una riqueza o recursos significativos y, hipotéticamente, ven esto como perjudicial. Sin embargo, esta perspectiva podría estar sesgada por un antagonismo subyacente hacia el capitalismo y la creación de riqueza, que históricamente han impulsado el progreso humano.

Si una IA superinteligente buscó maximizar su riqueza y también fue programada con restricciones razonables como «actuar dentro de los límites de la ley existente» y «acumular recursos únicamente satisfaciendo las necesidades de los consumidores o inversores», no se sabe por qué una IA. el acaparamiento de recursos debe causar cualquier alarma.

El capitalismo ha sido criticado durante mucho tiempo por una tendencia general hacia la monopolización, por lo que quizás la verdadera preocupación aquí sea el monopolio. Sin embargo, con pocas excepciones, la competencia ha dominado en gran medida el monopolio en las economías capitalistas. Ya estamos viendo una competencia significativa en el espacio de la IA, y hay pocas razones para pensar que eso no continuará.

Entonces, si bien las IA superinteligentes aspiran a adquirir tantos recursos como puedan, siempre que operen dentro de los límites legales (que los humanos pueden cambiar según las circunstancias) y apunten a satisfacer las demandas de los consumidores e inversores, su funcionamiento podría ser en gran medida paralelo a las actividades comerciales tradicionales. en un mercado.

Si bien este escenario puede no sentar bien a los comunistas y socialistas, para aquellos de nosotros que apreciamos los beneficios de los mercados, la producción y las empresas que compiten para satisfacer las demandas de los consumidores, las IA superinteligentes podrían ser un catalizador para el crecimiento económico en lugar de un presagio de el Apocalipsis. .

Entonces surge la pregunta: ¿por qué crear nuevas estructuras burocráticas y regímenes de licencias innecesarias si lo poco que sabemos hasta ahora sobre el desarrollo de IA proporciona tan pocas razones para preocuparse por las amenazas existenciales? Según Eliezer Yudkowsky, la responsabilidad es de aquellos que son escépticos de que la IA represente un riesgo existencial para refutar su teoría. Sin embargo, la carga de la prueba funciona en sentido contrario. Las afirmaciones sin fundamento de daño potencial, especialmente las sensacionalistas, deben corroborarse antes de ganar credibilidad.

A pesar de los titulares que llaman la atención, una inmersión más profunda en los cuentos del fin del mundo de la IA sugiere poco de qué preocuparse. En lugar de hundirse en el caos, las tendencias innatas de las IA superinteligentes pueden conducir a la convergencia de prácticas beneficiosas para la humanidad. Si bien garantizar el desarrollo ético y seguro de la implementación de IA es crucial, y ya está ocurriendo en gran medida, las regulaciones demasiado restrictivas obstaculizarán el potencial de la tecnología para impulsar el crecimiento económico y el progreso social.

En resumen, la carga de la prueba recae en los pesimistas. Sus afirmaciones de que todos iremos al infierno en una cesta de mano deben recibir un saludable escepticismo hasta que la evidencia sólida demuestre lo contrario. En general, según lo que sabemos sobre la IA y el riesgo existencial, tenemos más razones para ser optimistas que pesimistas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *