OpenAI bloquea 20 campañas maliciosas globales que utilizan IA para delitos cibernéticos y desinformación

AI Cybercrime and Disinformation

10 de octubre de 2024Lakshmanan encantadoCibercrimen/Desinformación

Cibercrimen y desinformación relacionados con la IA

OpenAI dijo el miércoles que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaron utilizar su plataforma con fines maliciosos desde principios de año.

Esta actividad incluía depurar malware, escribir artículos para sitios web, generar biografías para cuentas de redes sociales y crear imágenes de perfil generadas por IA para cuentas falsas en X.

«Los actores de amenazas continúan evolucionando y experimentando con nuestros modelos, pero no hemos visto evidencia de que esto conduzca a avances significativos en su capacidad para crear nuevo malware o construir audiencias virales», dijo la compañía de inteligencia artificial (IA). dicho.

También dijo que había interrumpido actividades que generaban contenido de redes sociales relacionado con las elecciones en Estados Unidos, Ruanda y, en menor medida, India y la Unión Europea, y que ninguna de estas redes no había generado participación viral o audiencia sostenida.

Esto incluyó los esfuerzos realizados por una empresa comercial israelí llamada STOIC (también apodada Zero Zeno) que generó comentarios en las redes sociales sobre las elecciones indias, como lo revelaron anteriormente Meta y OpenAI a principios de mayo pasado.

Ciberseguridad

Algunas de las operaciones cibernéticas destacadas por OpenAI incluyen:

  • SweetSpecter, un supuesto adversario con sede en China que aprovechó los servicios de OpenAI para reconocimiento basado en LLM, escaneo de vulnerabilidades, soporte de secuencias de comandos, evasión de detección de anomalías y desarrollo. También ha habido intentos fallidos de phishing contra empleados de OpenAI para proporcionar SugarGh0st RAT.
  • Cyber ​​​​Av3ngers, un grupo afiliado al Cuerpo de la Guardia Revolucionaria Islámica de Irán (IRGC), ha utilizado sus modelos para realizar investigaciones sobre controladores lógicos programables.
  • Storm-0817, un actor de amenazas iraní, utilizó sus modelos para depurar malware de Android capaz de recopilar información confidencial, herramientas para eliminar perfiles de Instagram a través de Selenium y traducir perfiles de LinkedIn al persa.

Por otra parte, la compañía dijo que había tomado medidas para bloquear varios grupos, incluida una operación de influencia llamada A2Z y Stop News, de cuentas que generaban contenido en inglés y francés para su posterior publicación en varios sitios web y de cuentas de redes sociales en varias plataformas. .

«[Stop News] «Fue excepcionalmente prolífico en el uso de imágenes», dijeron los investigadores Ben Nimmo y Michael Flossman. «Muchos de sus artículos web y tweets iban acompañados de imágenes generadas con DALL·E. Estas imágenes a menudo tenían estilo de dibujos animados y usaban paletas de colores brillantes o tonos dramáticos para atraer la atención. »

Otras dos redes identificadas por OpenAI Bet Bot y Corrupt Comment utilizan su API para generar conversaciones con los usuarios, respectivamente.

Esta divulgación se produce casi dos meses después de que OpenAI prohibiera un conjunto de cuentas vinculadas a una operación encubierta de influencia iraní llamada Storm-2035 que explotaba ChatGPT para generar contenido centrado, entre otras cosas, en las próximas elecciones presidenciales de Estados Unidos.

“Los malos actores utilizaron con mayor frecuencia nuestros modelos para realizar tareas en una fase intermedia específica de su actividad, después de adquirir herramientas básicas como acceso a Internet, direcciones de correo electrónico y cuentas de redes sociales, pero antes de implementar productos “terminados” como las redes sociales. publicaciones o malware en Internet a través de una variedad de canales de distribución”, escribieron Nimmo y Flossman.

Ciberseguridad

La empresa de ciberseguridad Sophos, en un informe publicado la semana pasada, dijo que la IA generativa podría usarse indebidamente para difundir información errónea personalizada a través de correos electrónicos microdirigidos.

Esto implica abusar de los modelos de IA para inventar sitios web de campañas políticas, personajes generados por IA en todo el espectro político y mensajes de correo electrónico dirigidos a ellos específicamente en función de los puntos de la campaña, permitiendo así un nuevo nivel de automatización para difundir desinformación a escala. .

“Esto significa que un usuario puede generar cualquier cosa, desde material de campaña inofensivo hasta desinformación intencionada y amenazas maliciosas, con una reconfiguración menor”, ​​afirman los investigadores Ben Gelman y Adarsh ​​​​Kyadige. dicho.

«Es posible asociar cualquier movimiento político real o candidato con el apoyo a una política, incluso si no están de acuerdo. La desinformación intencional como esta puede llevar a las personas a alinearse con un candidato que no apoyan o a estar en desacuerdo con un candidato que pensaban que les gustaba. .

¿Te pareció interesante este artículo? Síguenos en Gorjeo Y LinkedIn para leer más contenido exclusivo que publicamos.