Pero la devastación masiva que esperaban en realidad no ocurrió. En lugar de crear deepfakes de candidatos políticos que engañan a los candidatos y crean pesadillas de verificación de datos, los partidistas han utilizado principalmente la IA para generar memes obvios.
De hecho, el mayor impacto de AI este año puede haber sido simplemente convencer a Taylor Swift de que apoyara a la candidata presidencial demócrata Kamala Harris.
En una publicación de Instagram Al anunciar su apoyo a Harris el martes, la megaestrella dijo que su apoyo estaba influenciado en parte por una imagen de AI de ella que Trump publicó y que muestra a la megaestrella del pop con un ridículo sombrero de gran tamaño con la imagen de la bandera estadounidense con la frase «Taylor quiere que votes por Donald Trump».
«Esto realmente despertó mis temores sobre la IA y los peligros de difundir información errónea», escribió Swift en su publicación. “Esto me llevó a la conclusión de que necesitaba ser muy transparente sobre mis planes reales para estas elecciones como votante. La forma más sencilla de combatir la desinformación es decir la verdad. »
Y Swift, que desconfía de la IA, está en buena compañía: los expertos y los medios han hecho sonar la alarma: la IA podría alimentando un “Armagedón impulsado por la tecnología”, que sólo hemos visto la “punta del iceberg” y que “Los deepfakes amenazan con alterar las elecciones mundiales. »
Pero si bien ha habido algunos intentos de utilizar la IA para influir en los votantes (como la llamada automática falsa de Joe Biden en New Hampshire o un vídeo manipulado de la campaña de Kamala Harris), no parecen engañar a nadie.
Muchas de las creaciones de AI tomaron la forma de memes bastante obvios y videos satíricos compartidos en las redes sociales, y los verificadores de datos, incluidos aquellos en la plataforma como X’s Community Notes, eliminaron rápidamente cualquier contenido de AI que fuera vagamente convincente.
Incluso los intentos más siniestros, en los que actores extranjeros utilizan la IA para difundir desinformación, pueden ser un poco exagerados.
Meta, por ejemplo, escribió en su artículo más reciente Informe de amenaza del adversario que si bien las campañas de desinformación rusas, chinas e iraníes han explotado la IA, sus “tácticas basadas en GenAI” sólo han proporcionado “aumentos adicionales de productividad y generación de contenido”.
y microsoft, en su informe de inteligencia de amenazas más reciente Desde agosto, también se ha cuestionado la idea de que la IA ha hecho que las campañas de influencia extranjera sean más efectivas.
Microsoft escribe que al identificar las operaciones de influencia rusa y china, encontró que ambas «usaban IA generativa, pero con un impacto limitado o nulo», y agrega que otra operación rusa, que se informó por primera vez en abrilha “utilizado repetidamente IA generativa en sus campañas, con poco efecto”.
“En total”, continúa Microsoft en su informe, “hemos visto a casi todos los jugadores intentar integrar contenido de IA en sus operaciones, pero más recientemente, muchos jugadores han vuelto a técnicas que han demostrado ser efectivas en el pasado: simples manipulaciones digitales, malas prácticas. caracterización de contenidos y el uso de etiquetas o logotipos de confianza sobre información falsa. »
Y este no es solo el caso de Estados Unidos: las recientes elecciones en todo el mundo no se han visto significativamente afectadas por la IA.
El Instituto Australiano de Política Estratégica, que analizó casos de desinformación generada por IA en torno a las elecciones británicas de julio, encontrado en un informe reciente que los votantes nunca se han enfrentado al temido «tsunami de IA falsa dirigida a candidatos políticos».
«El Reino Unido vio sólo un puñado de ejemplos de contenido viral que se volvió viral durante el período de la campaña», dijo el investigador de ASPI Sam Stockwell.
Pero, añadió, «si bien no hay evidencia de que estos ejemplos influyeran en un gran número de votos», hubo «aumentos en el acoso en línea contra las personas objetivo de los contenidos falsos», así como «confusión entre el público con respecto a la autenticidad de los contenidos falsos». el contenido”.
En un estudio publicado en mayoEl Instituto Alan Turing del Reino Unido descubrió que de 112 elecciones nacionales que se han celebrado o están a punto de celebrarse desde principios de 2023, solo 19 de ellas han estado sujetas a interferencia de la IA.
«Los casos de uso indebido de la IA en las elecciones son raros y a menudo amplificados por los principales medios de comunicación», escriben los autores del estudio. “Esto corre el riesgo de amplificar las preocupaciones del público y reforzar la percepción de la amenaza que representa la IA para los procesos electorales. »
Pero, aunque los investigadores encontraron que «el impacto actual de la IA en resultados electorales específicos es limitado», las amenazas no son “muestran signos de deterioro del sistema democrático en su conjunto. »