Hacer que los ingenieros del gobierno de la IA se simbolicen sobre la ética de la IA considerar un desafío

Hacer que los ingenieros del gobierno de la IA se simbolicen sobre la ética de la IA considerar un desafío

Por John P. Desmond, editor de tendencias de IA

Los ingenieros tienden a ver las cosas en términos inequívocos, que algunos pueden llamar términos en blanco y negro, como una elección entre el bien o el mal y el bien y el mal. La consideración de la ética en la IA es muy matizada, con grandes áreas grises, lo que dificulta que los ingenieros de software de IA la apliquen en su trabajo.

Fue un punto para recordar de una sesión sobre el futuro de los estándares y la IA ética IA Gobierno mundial La conferencia tuvo lugar en persona y prácticamente en Alexandria, Virginia, esta semana.

Una impresión global de la conferencia es que la discusión de la IA y la ética ocurre en casi todos los trimestres de la IA en la vasta empresa del gobierno federal, y la coherencia de los puntos planteados en todos estos diferentes esfuerzos e independientes se destacó.

Beth-Ann Schuelke-Leech, profesora asociada, Ingeniería de Gestión, Universidad de Windsor

«Los ingenieros a menudo pensamos en la ética como algo confuso que nadie ha explicado realmente», declaró Beth-Anne Schuelke-Leech, profesora asociada, gestión de ingeniería y emprendimiento en la Universidad de Windsor, Ontario, Canadá, hablando en el futuro del futuro de Sesión ética de IA. “Puede ser difícil para los ingenieros que buscan restricciones sólidas, por decir ética. Se vuelve realmente complicado porque no sabemos lo que realmente significa. »»

Schuelke-Leech comenzó su carrera como ingeniero, luego decidió perseguir un doctorado en política pública, una capacitación que le permite ver las cosas como ingeniero y especialista en ciencias sociales. «Obtuve un doctorado en las ciencias sociales y me llevaron al mundo de la ingeniería donde estoy involucrado en proyectos de IA, pero con sede en una facultad de ingeniería mecánica», dijo.

Un proyecto de ingeniería tiene un objetivo, que describe el objetivo, un conjunto de características y funciones necesarias, y un conjunto de limitaciones, como el presupuesto y el calendario «estándares y regulaciones son parte de las limitaciones», dijo. «Si sé que tengo que respetarlo, lo haré. Pero si me dices que es bueno hacer, puedo o no adoptar esto. »»

Schuelke-Leech también es presidente del Comité de la Compañía IEEE sobre las implicaciones sociales de los estándares tecnológicos. Ella comentó: «Los estándares de conformidad voluntaria, como los IEEES, son esenciales de la gente de la reunión de la industria para decir que esto es lo que creemos que deberíamos hacer como industrial».

Ciertos estándares, como la interoperabilidad, no tienen el derecho de ley, sino los ingenieros de conformidad, por lo que sus sistemas funcionarán. Otros estándares se describen como buenas prácticas, pero no deben seguirse. «Ya sea que me ayude a alcanzar mi objetivo o preocuparme por alcanzar la meta, es cómo el ingeniero lo mira», dijo.

La búsqueda de la ética de la IA descrita como «desordenada y difícil»

Sara Jordan, abogada senior, Foro de Privacidad Future of Privacy

Sara Jordan, la principal abogada del Forz del Futuro de la Privacidad, durante la sesión con Schuelke-Leech, trabaja sobre los desafíos éticos de la IA y el aprendizaje automático y es un miembro activo de la Iniciativa Global IEEE sobre sistemas éticos e autónomos e inteligentes. “La ética es desordenada y difícil, y es responsable del contexto. Tenemos una proliferación de teorías, ejecutivos y construcciones «, dijo, y agregó:» La práctica de la IA ética requerirá un pensamiento repetible y riguroso en el contexto. «

Schuelke-Leech ofreció: “La ética no es un resultado final. Este es el proceso seguido. Pero también busco a alguien que me diga lo que necesito hacer para hacer mi trabajo, para decirme cómo ser ético, qué reglas se supone que debo seguir, para eliminar la ambigüedad. «

«Los ingenieros han cerrado cuando lanzas palabras divertidas que no entienden, como» ontológicas «, han estado tomando matemáticas y ciencias desde que tenían 13 años», dijo.

Le resultó difícil involucrar a los ingenieros en intentos de redactar estándares para la ética de IA. «Los ingenieros están ausentes de la mesa», dijo. «Los debates sobre la cuestión de si podemos llegar al 100% de ética son ingenieros de conversación».

Ella concluyó: «Si sus gerentes les dicen que lo entiendan, lo harán. Tenemos que ayudar a los ingenieros a cruzar el puente a mitad de camino. Es esencial que los especialistas en las ciencias e ingenieros sociales no abandonen esto. »»

El panel del líder describió la integración de la ética en las prácticas de desarrollo de IA

El tema de la ética en la IA se realiza más en el programa de estudio del Colegio Naval de Newport de los Estados Unidos, RI, que fue creado para proporcionar estudios avanzados a los oficiales de la Armada Americana y ahora educa a los gerentes de todos los servicios. Ross Coffey, profesor militar de asuntos de seguridad nacional en la institución, participó en un panel de líder sobre IA, ética y política inteligente en el gobierno mundial de la IA.

«La alfabetización ética de los estudiantes aumenta con el tiempo porque trabajan con estos problemas éticos, por eso esta es una pregunta urgente porque llevará mucho tiempo», dijo Coffey.

El miembro del panel Carole Smith, investigadora principal de la Universidad Carnegie Mellon que estudia la interacción humana-máquina, participa en la integración de la ética en el desarrollo de los sistemas de IA desde 2015. Citó la importancia de «desmystificar» la IA.

«Mi interés es comprender el tipo de interacciones que podemos crear cuando los humanos confían en el sistema con el que trabajan, no en o restan las que deberían para los sistemas.

Por ejemplo, citó las características del Tesla Automatic Pilot, que implementan una capacidad de automóvil autónoma en cierta medida pero no completamente. “La gente supone que el sistema puede hacer un conjunto mucho más grande de actividades que hacerlo. Ayudar a las personas a comprender los límites de un sistema es importante. Todos deben comprender los resultados esperados de un sistema y cuáles podrían ser algunas de las circunstancias atenuantes «, dijo.

El miembro del panel Taka Ariga, el primer científico de datos en jefe de datos designados para la Oficina de Responsabilidad del Gobierno de los Estados Unidos y Director del Laboratorio de Innovación GAO, ve una brecha en la alfabetización de la IA para los jóvenes que ingresan al gobierno federal. . “La capacitación de los datos científicos no siempre incluye la ética. La IA responsable es una construcción loable, pero no estoy seguro de que todos lo compren. Necesitamos su responsabilidad para ir más allá de los aspectos técnicos y ser responsables del usuario final al que estamos tratando de servir «, dijo.

El moderador del panel Alison Brooks, PhD, vicepresidente de investigación de ciudades y comunidades inteligentes de la Sociedad de Investigación de Mercado IDC, preguntó si los principios de IA éticos podrían compartirse a través de los límites de las naciones.

«Tendremos una capacidad limitada para que cada nación se alinee con el mismo enfoque exacto, pero tendremos que alinearse en algunos aspectos sobre lo que no permitiremos que haga la IA y lo que la gente también será responsable», dijo Smith de CMU.

Los panelistas atribuyeron a la Comisión Europea a seguir estos problemas éticos, en particular en el campo de la aplicación de la ley.

Las universidades de Ross de la Guerra Naval reconocieron la importancia de encontrar un terreno común en torno a la ética de la IA. “Desde un punto de vista militar, nuestra interoperabilidad debe ir a un nivel completamente nuevo. Debemos encontrar un terreno común con nuestros socios y nuestros aliados sobre lo que permitimos hacer la vida y lo que no permitimos que haga la IA. Desafortunadamente, «No sé si esta discusión ocurre», dijo.

La discusión sobre la ética de la IA podría continuar en el contexto de ciertos tratados existentes, sugirió Smith

Los muchos principios de ética de la IA, los ejecutivos y las tarjetas de carretera que se ofrecen en muchas agencias federales pueden ser difíciles de seguir y ser consistentes. Take Take: «Espero que en los próximos dos años, veamos una fusión».

Para obtener más información y acceso a las sesiones registradas, visite IA Gobierno mundial.