
El multimillonario magnate de los negocios y filántropo defendió su caso en un publicar en su blog personal de GatesNotes Hoy. “Quiero reconocer las preocupaciones que escucho y leo con más frecuencia, muchas de las cuales comparto, y explicar lo que pienso sobre ellas”, escribió.
Según Gates, la IA es «la tecnología más transformadora que cualquiera de nosotros verá en nuestra vida». Esto lo coloca por encima de Internet, los teléfonos inteligentes y las computadoras personales, la tecnología que hizo más que nadie por traer al mundo. (También sugiere que no se inventará nada más para rivalizar en las próximas décadas).
Gates fue una de las docenas de figuras de alto perfil que firmaron un declaración emitida por el Centro para la Seguridad de la IA en San Francisco hace unas semanas, que dice íntegramente: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear».
Pero no hay alarmismo en la entrada del blog de hoy. De hecho, el riesgo existencial no se tiene en cuenta. En cambio, Gates enmarca el debate como uno entre el riesgo «a más largo plazo» y el «inmediato», y opta por centrarse en los «riesgos que ya están presentes o pronto lo estarán». .”
«Gates ha estado jugando en la misma cuerda durante algún tiempo», dice David Leslie, director de investigación de ética e innovación responsable del Instituto Alan Turing en el Reino Unido. Gates fue una de las muchas figuras públicas que habló sobre el riesgo existencial de la IA hace una década cuando el aprendizaje profundo despegó por primera vez, dice Leslie: «Estaba más preocupado por la superinteligencia de lo que parece que podría haberse diluido un poco».
Gates no descarta del todo el riesgo existencial. Se pregunta qué puede pasar «cuando», no si, «desarrollamos una IA capaz de aprender cualquier tema o tarea», a menudo llamada inteligencia artificial general o AGI.
Él escribe: “Ya sea que lleguemos a este punto en una década o en un siglo, la sociedad tendrá que enfrentar preguntas profundas. ¿Qué pasa si una súper IA establece sus propios objetivos? ¿Y si entran en conflicto con los de la humanidad? ¿Deberíamos incluso crear una súper IA? Pero pensar en estos riesgos a más largo plazo no debe hacerse a expensas de los más inmediatos. »
Gates trazó una especie de término medio entre el pionero del aprendizaje profundo Geoffrey Hinton, quien dejó Google y hizo públicos sus temores sobre la IA en mayo, y otros como Yann LeCun y Pineau de Joelle Meta AI (quienes piensan que hablar sobre el riesgo existencial es «absurdamente ridículo» y «desequilibrado») o Meredith Whittaker de Signal (quien piensa que los temores compartidos por Hinton y otros son «historias de fantasmas»).