La inteligencia artificial generativa se está apoderando de la web a un ritmo rápido y, a medida que sopesamos las implicaciones para la educación, la energía y la creatividad humana, se vuelve cada vez más difícil confiar en cualquier cosa que aparezca en línea. ¿Es real o es generado por IA?
A partir de ahora, no tenemos una manera 100% confiable de detectar contenido generado por IA cada vez, pero hay signos reveladores de texto, audio, imágenes y video generados por IA por computadora que merecen ser monitoreados. Agregue un poco de inteligencia humana y, por lo general, es posible saber cuándo hay una buena posibilidad de que algo haya sido generado por IA.
Aquí nos centraremos en vídeos generados por IA, producidos por herramientas como Sora de OpenAI, y también hemos incluido algunos ejemplos. La próxima vez que encuentres un vídeo del que no estés seguro, comparalo con estos criterios.
Mal texto
Notarás que falta texto en muchos videos (e imágenes) de IA. La IA generativa no maneja muy bien el texto porque no entiende las letras ni el lenguaje, al menos no como los humanos. Los paneles de IA a menudo aparecen escritos en un idioma extranjero, así que tenga cuidado con el texto confuso o incluso sin texto alguno.
Eso no quiere decir que un buen texto no aparezca en los videos de IA, pero si aparece, probablemente se agregó después. este tráiler de Monster Camp (incrustado a continuación) generado por Luma AI, algunos de los carteles parecen correctos (y muy probablemente se agregaron manualmente): mire las letras en el autobús y en los stands del recinto ferial para ver si hay alguna tontería. Tendrás que mirar con atención, ya que el texto extraño no es visible por mucho tiempo.
Cortes rápidos (o lentos)
Esto nos lleva a otra característica de los vídeos generados por IA: a menudo notarás que los cortes son muy cortos y la acción ocurre muy rápidamente. Esto tiene como objetivo en parte ocultar inconsistencias e inexactitudes en los videos que se le muestran. La idea es darte la impresión de algo real, más que de la realidad misma.
Por otro lado, y contradiciendo lo que acabamos de decir, a veces sucede que la acción se ralentiza. Pero el objetivo final sigue siendo el mismo: evitar que aparezcan fisuras en los límites de las capacidades de la IA.
Dentro este vídeo musical generado por IA (incluido a continuación) de Washed Out es la primera solución: todo es rápido y desaparece antes de que puedas echar un vistazo. Intente pausar el video en diferentes momentos para ver cuántas rarezas puede detectar (notamos al menos una persona mezclándose con una pared).
Mala física
La IA generativa sabe cómo combinar píxeles en movimiento para representar algo que parece un gato, una ciudad o un castillo. Sin embargo, no comprende el mundo, el espacio 3D ni las leyes de la física. Las personas desaparecen detrás de los edificios o se ven diferentes de una escena a otra, los edificios están construidos de manera extraña, los muebles no están alineados correctamente, etc.
Considerar esta foto de drone (incluido a continuación) creado por Sora de OpenAI. Mantén tus ojos en el grupo de personas que caminan por el escenario en la esquina inferior izquierda: todos se absorben entre sí y finalmente se mezclan con las barandillas porque la IA los ve como píxeles en lugar de personas.
El valle inquietante
Los videos de IA a menudo tienen una apariencia que parece artificial, y ya estamos familiarizados con la frase «valle inquietante» cuando se trata de gráficos generados por computadora que intentan replicar lo que es real y natural. A menudo visitarás el valle inquietante mientras miras videos de IA, aunque sea solo por breves momentos.
Si echas un vistazo a la película de la marca Creado por Toys R Us con la ayuda de Sora AI, verás que la sonrisa y los movimientos del cabello del niño parecen extrañamente antinaturales. También parece un niño diferente de una escena a otra porque no es un actor: es una representación 2D generada en función de cómo la IA cree que debería verse un niño.
Elementos perfectos (o imperfectos)
Este es otro caso en el que existe cierta contradicción, ya que los vídeos de IA pueden verse traicionados por elementos que son demasiado perfectos o no lo suficientemente perfectos. Después de todo, estos clips son generados por computadoras, por lo que los diseños de edificios, vehículos o materiales pueden repetirse una y otra vez, en patrones demasiado perfectos para existir en la vida real.
Por otro lado, la IA sigue luchando contra cualquier cosa natural, ya sea una mano, una barbilla u hojas movidas por el viento. este video Desde Runway AI de un astronauta corriendo, notarás que las manos están sucias (además de que gran parte de la física de fondo es incorrecta y el texto está borroso).
Comprueba el contexto
Luego están todas las herramientas que ya teníamos para identificar información errónea: incluso antes de la IA generativa, existía Photoshop, por lo que algunas de las reglas para detectar falsificaciones siguen siendo las mismas.
El contexto es fundamental: si un vídeo proviene de New York Times cuenta oficial de redes sociales, entonces lo más probable es que sea confiable. Si lo reenvía una persona anónima en X con muchos números en su nombre de usuario, tal vez menos.
Verifique si la acción en el video fue capturada desde otros ángulos, si ha sido ampliamente reportada en otros lugares o si realmente tiene sentido. También puedes consultar con las personas del vídeo: si hay alguna narración de Morgan Freeman de fondo, Morgan Freeman puede comprobarla. De una manera u otra.