Lord Chris Holmes sobre la regulación de la IA

Anna Antimiichuk

En una era dominada por la inteligencia artificial (IA), la sociedad se encuentra en una encrucijada. ¿Estamos aprovechando las oportunidades sin precedentes que ofrece la IA o nos estamos conteniendo mientras esperamos que se manifiesten las consecuencias de la falta de regulación?

Lord Chris Holmes, MBE, en su reciente discurso en la conferencia #RISK en Londres, abordó este dilema pidiendo un marco regulatorio estructurado y equilibrado para garantizar que la IA sirva al bien público.

Partió de la importancia de cuatro “yo” fundamentales:

  • inclusión
  • innovación
  • inversión
  • perspectiva internacional

Estos elementos, mencionó, deberían estar en el centro de cualquier marco regulatorio diseñado para gestionar el rápido desarrollo y despliegue de tecnologías de IA.

La importancia del riesgo es evidente en todo el mensaje de Lord Holmes. Advirtió contra la adopción de un enfoque de “esperar y ver” respecto de la regulación de la IA, afirmando que la indecisión es una elección que tiene sus propios riesgos. El mundo ya ha visto ejemplos de los peligros de la IA cuando no está regulada, desde algoritmos sesgados que determinan si alguien califica para un préstamo hasta la interferencia electoral impulsada por la IA que amenaza los procesos democráticos. La inacción, según Lord Holmes, podría tener consecuencias desastrosas no sólo para los individuos sino también para el tejido mismo de la sociedad.

En el centro de su argumento está la idea de que la regulación y la innovación no son mutuamente excluyentes. Lord Holmes destacó la historia de éxito regulatorio del Reino Unido y citó a la Autoridad de Mercados y Competencia (CMA) como un ejemplo de cómo la intervención regulatoria deliberada se ha replicado a escala global, lo que demuestra que la regulación puede mejorar, en lugar de sofocar, la innovación. Su llamado es por una “regulación del tamaño adecuado”, un término medio entre reglas excesivamente prescriptivas que limitan la creatividad y un enfoque de “laisser-faire” que invita al caos.

El discurso también se centró en la inclusión que surge del potencial social que tiene la IA. Las capacidades transformadoras de la IA podrían revolucionar la atención sanitaria, la educación y la movilidad, proporcionando servicios personalizados y eficientes a millones de personas. Un ejemplo convincente que mencionó es el uso de la IA en la detección del cáncer de mama. Ha mejorado significativamente los resultados del diagnóstico y el tratamiento. Sin embargo, estos beneficios seguirán estando fuera de alcance si no se implementa un marco regulatorio apropiado. Sin ella, la IA podría ampliar la brecha entre quienes tienen acceso a tecnologías de vanguardia y quienes no.

Lo que está en juego es igualmente alto para la democracia. En su discurso, Lord Holmes destacó que para 2024, «se espera que el 40% de las democracias del mundo celebren elecciones, y la IA podría influir en estos resultados, cambiando potencialmente los resultados electorales sin que los votantes se den cuenta siquiera de cómo». El potencial de la IA para utilizarse como herramienta de manipulación política o supresión de votantes es inmenso.

Al mismo tiempo, la IA también presenta una gran oportunidad económica. Para 2030, se estima que la IA podría contribuir con 15,7 billones de dólares al PIB mundial. Lord Holmes señaló que, aunque la cifra exacta es menos importante, lo que importa es garantizar que el Reino Unido pueda asegurar una parte significativa de este crecimiento. Sin embargo, sin un marco regulatorio consistente, las empresas pueden dudar en invertir en IA debido a la incertidumbre que sofoca el potencial económico.

Como parte de su visión, Lord C. Holmes presentó su Proyecto de Ley de Regulación de la IA, cuyo objetivo es abordar los desafíos que plantea la IA de una manera que apoye la innovación y al mismo tiempo proteja a cada individuo y a la sociedad en su conjunto.

El proyecto de ley de regulación de la IA propone varias medidas prácticas para abordar estos desafíos. La primera es la creación de una Autoridad de IA, que actuaría como regulador central, garantizando que todos los reguladores existentes sean competentes para gestionar las complejidades de la IA. Esta autoridad también abordaría las brechas en el panorama regulatorio actual y garantizaría la coherencia entre sectores. Sin esa autoridad, afirma, corremos el riesgo de tener un enfoque fragmentado e inconsistente para regular la IA, lo que sería perjudicial tanto para los individuos como para las empresas.

Otro elemento clave del proyecto de ley es la introducción de
Cajas de arena de IA. Estos entornos controlados permitirían a las empresas desarrollar y probar tecnologías de IA en condiciones reales de mercado sin temor a sanciones regulatorias. Holmes destacó el éxito de sandboxes similares en el Reino Unido en el sector FinTech (desde 2016), que desde entonces se han replicado en más de 50 jurisdicciones de todo el mundo. El objetivo es fomentar la innovación manteniendo la seguridad y la responsabilidad.

También la idea de un Se presenta al oficial a cargo de la IA. Se trata de una nueva función dentro de las organizaciones responsables de garantizar que la IA se implemente de forma ética e imparcial. Al asignar responsabilidad por el uso ético de la IA, las empresas pueden crear una cultura de responsabilidad y transparencia, fortaleciendo la confianza pública en sus tecnologías.

Sin embargo, uno de los aspectos más críticos del proyecto de ley es su enfoque en la participación pública: si el público no participa en el debate sobre la IA, corre el riesgo de resistirse a la tecnología por temor a perderse los beneficios y asumir la mayoría de los beneficios. costos. riesgos. Por lo tanto, la participación pública es esencial para generar confianza y garantizar que la IA se desarrolle y despliegue de manera que sirva al bien público.

La IA tiene un enorme potencial, pero sin una “regulación adecuada” corremos el riesgo de dañar a la sociedad, la economía y la democracia, concluyó su discurso en la conferencia RISK. «Depende de nosotros dar forma al futuro de la IA de manera responsable, garantizando que sirva al bien público y mejore, en lugar de amenazar, nuestra forma de vida».