Las mejores prácticas para construir la plataforma de desarrollo de IA en el gobierno

Por John P. Desmond, editor de tendencias de IA
La batería de IA definida por la Universidad Carnegie Mellon es fundamental para el enfoque adoptado por el ejército de los EE. UU. Para sus esfuerzos de la plataforma de desarrollo de IA, según Isaac Faber, científico jefe del Centro de Integración del Ejército de los EE. UU., Hablando con el IA Gobierno mundial El evento tuvo lugar en persona y prácticamente Alexandria, Virginia, la semana pasada.

«Si queremos mover el ejército de sistemas heredados gracias a la modernización digital, uno de los mayores problemas que he encontrado es la dificultad de desarrollar las diferencias en las aplicaciones», dijo. «La parte más importante de la transformación digital es la capa intermedia, la plataforma que facilita estar en la nube o en una computadora local». El deseo es poder mover su plataforma de software a otra plataforma, con la misma facilidad con la que un nuevo teléfono inteligente trae contactos e historias de los usuarios.
La ética corta todas las capas de la batería de aplicación AI, que posiciona el paso de planificación en la parte superior, seguido de un soporte de decisiones, modelado, aprendizaje automático, gestión masiva de datos y capa o plataforma del dispositivo en la parte inferior.
«Recomiendo que consideremos la batería como una infraestructura básica y un medio para que las aplicaciones se implementen y que no sean divididas en nuestro enfoque», dijo. «Debemos crear un entorno de desarrollo para una fuerza laboral distribuida en el mundo».
El Ejército trabajó en una plataforma de software operativo común (COES), anunciada por primera vez en 2017, un diseño para el trabajo del Departamento de Defensa que es escalable, ágil, modular, portátil y abierto. «Es adecuado para una amplia gama de proyectos de IA», dijo Faber. Por haber hecho el esfuerzo, «el diablo está en detalle», dijo.
El ejército trabaja con CMU y compañías privadas en una plataforma prototipo, incluso con Vista De Coraopolis, Pensilvania, que ofrece servicios de desarrollo de IA. Faber dijo que prefiere colaborar y coordinar con la industria privada en lugar de comprar productos en el estante. «El problema con esto es que está atrapado con el valor que le proporciona un solo proveedor, que generalmente no está diseñado para los desafíos de las redes de DoD», dijo.
El ejército forma una variedad de equipos tecnológicos en AI
El Ejército se dedica a los esfuerzos para desarrollar la fuerza laboral de la IA para varios equipos, en particular: liderazgo, profesionales que tienen un diploma de posgrado; Personal técnico, seguido de la capacitación para ser certificados; y usuarios de AI.
Los equipos tecnológicos del Ejército tienen diferentes áreas de interés, que incluyen: el desarrollo del software de uso general, la ciencia de datos operativos, la implementación que incluye análisis y un equipo de operaciones de aprendizaje automático, como un gran equipo requerido para crear un sistema de visión por computadora. «A medida que las personas pasan por el mercado laboral, necesitan un lugar para colaborar, construir y compartir», dijo Faber.
Los tipos de proyectos incluyen el diagnóstico, que podría combinar flujos de datos históricos, predictivos y normativos, que recomienda una conducta basada en una predicción. “Básicamente es AI; No comienzas con eso ”, dijo Faber. El desarrollador debe resolver tres problemas: ingeniería de datos, la plataforma de desarrollo de IA, que llamó «la burbuja verde» y la plataforma de implementación, que llamó «The Bubble Red».
“Estos están excluyendo entre sí y todos interconectados. Estos equipos de diferentes personas deben ser coordinados por el programa. Por lo general, un buen equipo de proyecto tendrá personas de cada una de estas burbujas «, dijo. «Si aún no ha hecho esto, no intente resolver el problema de la burbuja verde. Esto no tiene sentido continuar la IA hasta que tenga una necesidad operativa. »»
Cuestionado por un participante que grupo es el más difícil de alcanzar y entrenar, Faber dijo sin dudarlo: «Los líderes más difíciles de alcanzar son los líderes. Necesitan aprender cuál es el valor proporcionado por el ecosistema AI. El mayor desafío es saber cómo comunicar este valor «, dijo.
El panel analiza el uso de IA con el mayor potencial
En un panel sobre los fundamentos de la IA emergente, el moderador de Curt Savoie, Director del Programa, Estrategias Globales de Ciudades Smart para IDC, la firma de estudio de mercado, preguntó cuál es el caso de uso de la IA tiene el mayor potencial.
Jean-Charles Lede, asesor de tecnología de autonomía de la Fuerza Aérea de los Estados Unidos, Oficina de Investigación Científica, dijo: «Señalaría los beneficios de la decisión en el límite, el apoyo de los pilotos y operadores y decisiones en la parte trasera, para planificar la misión y recursos.

Krista Kinnard, jefa de tecnología emergente para el Ministerio de Trabajo, dijo: «El tratamiento del lenguaje natural es una oportunidad para abrir las puertas a IA en el Ministerio de Trabajo», dijo. «Al final, estamos tratando con datos sobre personas, programas y organizaciones».
Savoie preguntó cuáles son los grandes riesgos y los peligros que los panelistas ven cuando la implementación de IA.
Anil Chaudhry, director de implementaciones federales de IA para la Administración de Servicios Generales (GSA), dijo que en una organización de TI típica que utiliza el desarrollo del software tradicional, el impacto de un desarrollador solo va a ser muy lejos. Con IA, “Debe considerar el impacto en toda una clase de personas, votantes y partes interesadas. Con un simple cambio de algoritmos, puede retrasar las ventajas de millones de personas o hacer inferencias incorrectas a gran escala. Este es el riesgo más importante «, dijo.
Dijo que le pidió a sus socios contractuales que tengan «humanos en el bucle y humanos en el bucle».
Kinnard apoyó esto, diciendo: «No tenemos intención de eliminar a los humanos del bucle. Realmente es una cuestión de permitir que las personas tomen mejores decisiones. »»
Ella destacó la importancia de monitorear los modelos de IA después de su despliegue. «Los modelos pueden derivarse como los datos subyacentes de datos», dijo. «Por lo tanto, necesita un nivel crítico de pensamiento no solo para hacer la tarea, sino también para evaluar si el modelo IA es aceptable».
Ella agregó: “Hemos creado casos de usuarios y asociaciones a través del gobierno para garantizar que estemos implementando una IA responsable. Nunca reemplazaremos a las personas con algoritmos. »»
LED de la Fuerza Aérea dijo: “A menudo tenemos casos de usuarios en los que los datos no existen. No podemos explorar 50 años de datos de guerra, por lo que utilizamos la simulación. El riesgo es enseñar un algoritmo de que tiene una «simulación de realidad» que es un riesgo real. No sabes cómo los algoritmos se enfrentarán al mundo real. »»
Chaudhry destacó la importancia de una estrategia de prueba para los sistemas de IA. Advirtió contra los desarrolladores «que están enamorados de una herramienta y olvidan el propósito del ejercicio». Recomendó el diseño del gerente de desarrollo en la estrategia de verificación y validación independiente. “Tus pruebas, aquí es donde necesitas concentrar tu energía como líder. El líder necesita una idea en mente, antes de cometer recursos, sobre cómo justificará si la inversión ha sido un éxito. »»
LED de la Fuerza Aérea habló de la importancia de la explicación. “Soy tecnólogo. No hago leyes. La capacidad de la función AI se explicará de una manera que un humano puede interactuar es importante. AI es un socio con el que tenemos un diálogo, en lugar de IA, concluye que no tenemos forma de verificar «, dijo.
Obtenga más información sobre Gobierno mundial de AI.