Que quieres saber
- La UE y Google están trabajando juntos para crear un pacto voluntario de IA.
- Esto precede a pautas mucho más estrictas para la tecnología de IA para países europeos y no europeos.
- La Comisión Europea quiere que los detalles estén ultimados antes de fin de año.
Parece que Google y la UE están pensando juntos sobre las reglas que las empresas deben seguir con la tecnología de IA.
De acuerdo a Reuters, la Comisión Europea y Google han comenzado a trabajar juntos para crear un pacto voluntario de IA antes de que se presenten directrices más estrictas para la tecnología. Según los informes, el jefe de la industria europea, Thierry Breton, instó a los países y a los legisladores de la UE a finalizar los detalles de las reglas de IA de la Comisión Europea antes de fin de año.
El pacto de IA propuesto y, supuestamente, las próximas reglas afectarán tanto a los países europeos como a los no europeos en el futuro. Sin embargo, como informa Reuters, ninguno de los grupos ha iniciado negociaciones para resolver los problemas de las restricciones propuestas para aumentar el software de IA.
Según se informa, Breton se reunió con el CEO de Alphabet, Sundar Pichai, en Bruselas, Bélgica. «Sundar y yo acordamos que no podíamos darnos el lujo de esperar a que las regulaciones de IA se hicieran realmente aplicables y trabajar con todos los desarrolladores de IA para desarrollar un pacto de IA de forma voluntaria antes de la fecha límite legal», dijo Breton.
Gracias por su tiempo hoy, Comisario @ThierryBreton, y por el debate reflexivo sobre la mejor manera de trabajar con Europa para apoyar un enfoque responsable de la IA.24 de mayo de 2023
La UE no solo está tratando de lograr que los países y las empresas de la región cumplan, sino que también está trabajando junto con los EE. UU. Las dos regiones están comenzando a establecer algún tipo de «estándar mínimo» sobre la tecnología de inteligencia artificial antes de que se introduzca cualquier legislación.
Los chatbots y el software de inteligencia artificial están brotando como malezas silvestres, lo que genera una creciente preocupación entre los legisladores y los consumidores por la rapidez con que se están apoderando de nuestras vidas. Recientemente, Samsung tuvo un encontronazo con ChatGPT de OpenAI y un incidente con un ingeniero que envió accidentalmente el código fuente confidencial de la empresa al chatbot de IA. Esto resultó rápidamente en que a todos los empleados se les prohibiera usar software de IA generativa en dispositivos propiedad de la empresa y sus dispositivos personales (si existen registros de la empresa) en nombre de la seguridad.
Mientras tanto, en Canadá, más autoridades de privacidad federales y provinciales han comenzado a unir fuerzas para iniciar una investigación sobre OpenAI y su software ChatGPT. De acuerdo a Radio Canadá, ambas partes afirmaron que OpenAI recopiló, usó y divulgó datos personales de manera ilegal. La investigación buscará averiguar si OpenAI recibió o no el consentimiento de los usuarios antes de tomar y usar sus datos personales y si hubo intenciones maliciosas detrás del acto.
Además, el evento I/O 2023 de Google estuvo repleto de nuevos esfuerzos de inteligencia artificial de la compañía para los usuarios. Uno de los temas que planteó la propia empresa fue cómo enfatiza ser más «responsable» con su software de IA. Google no solo quería considerar la imagen detrás de sus productos, sino también cómo avanzará y tratará la información, especialmente la información errónea.
Google dijo que parte de su desarrollo de IA es encontrar formas de maximizar los «beneficios positivos para la sociedad mientras se abordan los desafíos» en línea con su Principios de la IA firmemente arraigado en la rendición de cuentas.