DHS lanza marco seguro de IA para infraestructura crítica

DHS lanza marco seguro de IA para infraestructura crítica

El Departamento de Seguridad Nacional de EE. UU. (DHS) ha publicado recomendaciones que describen cómo desarrollar e implementar de forma segura inteligencia artificial (IA) en infraestructura crítica. Las recomendaciones se aplican a todos los actores de la cadena de suministro de IA, desde los proveedores de infraestructura informática y de nube, hasta los desarrolladores de IA y los propietarios y operadores de infraestructura crítica. Las recomendaciones también están destinadas a la sociedad civil y a las organizaciones del sector público.

Las recomendaciones voluntarias del “Marco de funciones y responsabilidades para la inteligencia artificial en infraestructuras críticas” examinan cada una de las funciones en cinco áreas clave: proteger entornos, impulsar el diseño responsable de modelos y sistemas, implementar la gobernanza de datos, garantizar una implementación segura y monitorear el desempeño. e impacto. También hay recomendaciones técnicas y de procedimiento para mejorar la seguridad y la confiabilidad de los sistemas de IA.

La IA ya se está utilizando para la resiliencia y la mitigación de riesgos en todos los sectores, dijo el DHS en un comunicado, señalando que las aplicaciones de IA ya se utilizan para la detección de terremotos, la estabilización de redes eléctricas y la clasificación de correo.

El marco examinó las responsabilidades de cada rol:

  • Proveedores de infraestructura de TI y nube deben controlar su cadena de suministro de hardware y software, implementar una gestión de acceso sólida y proteger la seguridad física de los centros de datos que alimentan los sistemas de IA. El marco también contiene recomendaciones sobre cómo respaldar a los clientes y los procesos posteriores mediante el monitoreo de actividades anormales y el establecimiento de procesos claros para informar actividades sospechosas y dañinas.

  • Desarrolladores de IA debería adoptar un enfoque Seguro por Diseño, evaluar las capacidades peligrosas de los modelos de IA y «garantizar la alineación del modelo con valores centrados en el ser humano». El marco alienta además a los desarrolladores de IA a implementar prácticas sólidas de privacidad; realizar evaluaciones que prueben posibles sesgos, modos de falla y vulnerabilidades; y respaldar evaluaciones independientes de modelos que plantean mayores riesgos para los sistemas de infraestructura crítica y sus consumidores.

  • Propietarios y operadores de infraestructuras críticas deben implementar sistemas de IA de forma segura, incluido el mantenimiento de prácticas sólidas de ciberseguridad que consideren los riesgos de la IA, protegiendo los datos de los clientes al ajustar los productos de IA y garantizando una transparencia significativa con respecto al uso de la IA para proporcionar bienes, servicios o beneficios al público.

  • sociedad civilincluidas universidades, instituciones de investigación y defensores de los consumidores comprometidos con cuestiones de seguridad de la IA, deberían continuar trabajando en el desarrollo de estándares junto con el gobierno y la industria, así como ‘realizar investigaciones sobre evaluaciones de la IA que consideren casos de uso de infraestructura crítica.

  • Sector público Las entidades, incluidos los gobiernos federal, estatal, local, tribal y territorial, deben promover estándares de práctica para la seguridad de la IA a través de medidas legales y regulatorias.

«El marco, si se adopta ampliamente, contribuirá en gran medida a garantizar mejor la seguridad de los servicios esenciales que proporcionan agua potable, electricidad constante, acceso a Internet y mucho más», dijo el secretario del DHS, Alejandro N. Mayorkas, en una declaración.

El marco del DHS proporciona un modelo de responsabilidades compartidas y distintas para el uso seguro de la IA en infraestructuras críticas. También se basa en los marcos de riesgo existentes para permitir a las entidades evaluar si el uso de IA para ciertos sistemas o aplicaciones conlleva riesgos graves que podrían causar daño.

«Queremos que el marco sea, francamente, un documento vivo y que también evolucione a medida que evolucionen los avances en la industria», dijo Mayorkas en una llamada a los medios.