5 pasos concretos para evitar las filtraciones de datos GenAI sin bloquear completamente el uso de la IA

Generative AI

1 de octubre de 2024noticias de piratas informáticosIA generativa / Protección de datos

IA generativa

Desde su aparición, la IA generativa ha revolucionado la productividad empresarial. Las herramientas GenAI permiten un desarrollo de software, análisis financiero, planificación empresarial y participación del cliente más rápido y eficiente. Sin embargo, esta agilidad empresarial conlleva riesgos importantes, incluida la posibilidad de que se filtren datos confidenciales. A medida que las organizaciones intentan equilibrar las ganancias de productividad con las preocupaciones de seguridad, muchas se han visto obligadas a elegir entre el uso ilimitado de GenAI o prohibirlo por completo.

Una nueva guía electrónica de LayerX titulada Cinco pasos concretos para evitar la fuga de datos utilizando herramientas de IA generativa está diseñado para ayudar a las organizaciones a abordar los desafíos del uso de GenAI en el lugar de trabajo. La guía proporciona pasos prácticos para que los líderes de seguridad protejan los datos empresariales confidenciales mientras disfrutan de los beneficios de productividad de las herramientas GenAI como ChatGPT. Este enfoque tiene como objetivo permitir a las empresas encontrar el equilibrio adecuado entre innovación y seguridad.

¿Por qué debería preocuparse por ChatGPT?

La guía electrónica aborda la creciente preocupación de que el uso irrestricto de GenAI pueda provocar una exposición involuntaria de los datos. Por ejemplo, como lo ponen de relieve incidentes como Fuga de datos de Samsung. En este caso, los empleados expusieron accidentalmente código propietario mientras usaban ChatGPT, lo que llevó a una prohibición total de las herramientas GenAI dentro de la empresa. Estos incidentes resaltan la necesidad de que las organizaciones desarrollen políticas y controles sólidos para mitigar los riesgos asociados con GenAI.

Nuestra comprensión del riesgo no es sólo anecdótica. Según un estudio de LayerX Security:

  • El 15% de los usuarios empresariales han pegado datos en herramientas GenAI.
  • El 6% de los usuarios empresariales se estancaron sensible datos, como código fuente, información personal o información organizacional confidencial, en herramientas GenAI.
  • Del 5% superior de usuarios de GenAI, el 50% pertenece a I+D.
  • El código fuente es el principal tipo de datos confidenciales expuestos y representa el 31% de los datos expuestos.

Pasos clave para los administradores de seguridad

¿Qué pueden hacer los líderes de seguridad para permitir el uso de GenAI sin poner a la organización en riesgo de filtración de datos? Los aspectos más destacados de la guía electrónica incluyen los siguientes pasos:

  1. Mapeo del uso de la IA en la organización – Empiece por comprender qué necesita proteger. Identifique quién utiliza las herramientas GenAI, de qué manera, con qué fines y qué tipos de datos están expuestos. Esta será la base de una estrategia eficaz de gestión de riesgos.
  2. Restringir cuentas personales – Luego, aprovecha la protección que ofrecen las herramientas GenAI. Las cuentas corporativas GenAI brindan medidas de seguridad integradas que pueden reducir significativamente el riesgo de fugas de datos confidenciales. Esto incluye restricciones sobre los datos utilizados con fines de capacitación, restricciones sobre la retención de datos, limitaciones para compartir cuentas, anonimización, etc. Tenga en cuenta que esto requiere imponer el uso de cuentas no personales cuando se utiliza GenAI (que requiere una herramienta patentada para hacerlo).
  3. Invitar usuarios – En un tercer paso, utilice el poder de sus propios empleados. Los simples mensajes recordatorios que aparecen al utilizar las herramientas GenAI ayudarán a educar a los empleados sobre las posibles consecuencias de sus acciones y políticas organizacionales. Esto puede reducir efectivamente el comportamiento riesgoso.
  4. Bloquear la entrada de información sensible – Ahora es el momento de introducir tecnología avanzada. Implemente controles automatizados que limiten la entrada de grandes cantidades de datos confidenciales a las herramientas GenAI. Esto es particularmente eficaz para evitar que los empleados compartan código fuente, información de clientes, información personal, datos financieros, etc.
  5. Restringir las extensiones del navegador GenAI – Finalmente, previene los riesgos de las extensiones del navegador. Administre y clasifique automáticamente las extensiones del navegador de IA según el riesgo para evitar el acceso no autorizado a datos organizacionales confidenciales.

Para aprovechar plenamente los beneficios de productividad de la IA generativa, las empresas deben encontrar el equilibrio entre productividad y seguridad. Por lo tanto, la seguridad de GenAI no debería ser una elección binaria entre permitir toda la actividad de IA o bloquearlo todo. En cambio, adoptar un enfoque más matizado y refinado permitirá a las organizaciones obtener beneficios comerciales, sin exponerlas a riesgos. Para los líderes de seguridad, es la manera de convertirse en un socio comercial y facilitador clave.

Descarga la guía para aprender cómo usted también puede implementar fácilmente estos pasos de inmediato.

¿Te pareció interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Gorjeo Y LinkedIn para leer más contenido exclusivo que publicamos.