Cómo evitar su primera filtración de datos de IA

AI Varonis header

Cabeza de IA de Varonis

Descubra por qué el uso generalizado de copilotos de IA de generación inevitablemente aumentará las filtraciones de datos

Este escenario se está volviendo cada vez más común en la era de la IA general: un competidor de alguna manera obtiene acceso a información confidencial de la cuenta y utiliza esos datos para dirigirse a los clientes de la organización con campañas publicitarias.

La organización no tenía idea de cómo se obtuvieron los datos. Fue una pesadilla de seguridad que podría poner en peligro la confianza de sus clientes.

La empresa identificó la fuente de la filtración de datos: un ex empleado utilizó un copiloto de IA para acceder a una base de datos interna que contenía datos de la cuenta. Copiaron información confidencial, como gastos de clientes y productos comprados, y se la pasaron a un competidor.

Este ejemplo resalta un problema creciente: El uso generalizado de copilotos de IA de generación aumentará inevitablemente las violaciones de datos.

Según un reciente Encuesta de GartnerLos casos de uso de IA más comunes incluyen aplicaciones generativas basadas en IA, como Copiloto de Microsoft 365 Y Copiloto de Salesforce EinsteinSi bien estas herramientas son una excelente manera para que las organizaciones aumenten la productividad, también crean importantes desafíos de seguridad de los datos.

En este artículo, exploraremos estos desafíos y le mostraremos cómo proteger sus datos en la era de la IA de próxima generación.

Riesgos de los datos de la IA de generación

Casi el 99% de los permisos no se utilizan y más de la mitad de ellos son de alto riesgo. El acceso a datos no utilizados y demasiado permisivo siempre es un problema para la seguridad de los datos, pero la IA de próxima generación está echando más leña al fuego.

Las herramientas de IA de la Generación G pueden acceder a aquello a lo que tienen acceso los usuarios. Es imprescindible dimensionar correctamente el acceso.
Las herramientas de IA de la Generación G pueden acceder a aquello a lo que tienen acceso los usuarios. Es imprescindible dimensionar correctamente el acceso.

Cuando un usuario hace una pregunta a un copiloto general de IA, la herramienta formula una respuesta en lenguaje natural basada en Internet y contenido comercial a través de tecnología gráfica.

Dado que los usuarios suelen tener un acceso demasiado permisivo a los datos, el copiloto puede revelar fácilmente datos confidenciales, incluso si el usuario no sabía que podía acceder a ellos.

Muchas organizaciones no saben qué datos confidenciales tienen y es casi imposible escalar adecuadamente el acceso manualmente.

La generación de IA reduce el listón de las filtraciones de datos

Los actores maliciosos ya no necesitan saber cómo piratear un sistema o comprender los entresijos de su entorno. Simplemente pueden pedirle a un copiloto información confidencial o credenciales que les permitan moverse lateralmente.

Los desafíos de seguridad relacionados con la habilitación de herramientas de IA de generación incluyen:

  • Los empleados tienen acceso a demasiados datos
  • Los datos confidenciales a menudo no están etiquetados o están mal etiquetados
  • Los expertos pueden encontrar y filtrar datos rápidamente utilizando lenguaje natural
  • Los atacantes pueden descubrir los secretos de la escalada de privilegios y el movimiento lateral
  • Es imposible dimensionar correctamente el acceso manualmente
  • La IA generativa puede crear rápidamente nuevos datos confidenciales

Estos desafíos de seguridad de datos no son nuevos, pero son altamente viables, dada la velocidad y facilidad con la que la IA generacional genera información.

Cómo detener su primera infracción de IA

El primer paso para eliminar los riesgos asociados con la IA de próxima generación es asegurarse de que su casa esté en orden.

Es una mala idea dejar sueltos a los copilotos en su organización si no está seguro de dónde están sus datos confidenciales, cuáles son esos datos confidenciales, si no puede analizar la exposición y el riesgo, y si no puede cerrar las brechas de seguridad. y corregir errores de configuración de manera efectiva.

Una vez que controle la seguridad de los datos en su entorno y haya implementado los procesos adecuados, estará listo para implementar un copiloto.

En este punto, debes centrarte en los permisos, las etiquetas y la actividad humana.

  • Permisos: Asegúrese de que los permisos de sus usuarios tengan el tamaño adecuado y que el acceso del copiloto refleje esos permisos.
  • Etiquetas: Una vez que comprenda qué datos confidenciales tiene y cuáles son esos datos confidenciales, puede aplicarles etiquetas para aplicar DLP.
  • Actividad humana: Es fundamental controlar el uso que hacen los empleados del copiloto e investigar cualquier comportamiento sospechoso detectado. Monitorear a qué mensajes y archivos acceden los usuarios es esencial para evitar que los copilotos sean explotados.

Integrar estas tres áreas de seguridad de datos no es sencillo y no se puede lograr únicamente mediante un esfuerzo manual. Pocas organizaciones pueden Adopte de forma segura copilotos de generación de IA sin un enfoque holístico de la seguridad de los datos y controles específicos para los propios copilotos.

Prevención de violaciones de IA con Varonis

Varonis ayuda a clientes de todo el mundo a proteger lo que más importa: sus datos. Hemos aprovechado nuestra profunda experiencia para proteger a las organizaciones que están considerando implementar IA generativa.

Si recién está comenzando su viaje de generación de IA, la mejor manera de comenzar es utilizar nuestro Evaluación de riesgos de datosEn menos de 24 horas, tendrá una vista en tiempo real de los riesgos para sus datos confidenciales para determinar si puede adoptar de manera segura un copiloto generacional de IA.

Para obtener más información, explore nuestro Recursos de seguridad de IA.

Patrocinado y escrito por varonis.