
Las redes sociales se han llenado de vídeos generados con Sora y otras herramientas de inteligencia artificial (IA). Algunos resultados son extraordinariamente realistas, hasta el punto de que ya hay muchos usuarios que dudan cuándo son falsos y cuándo no. Cada vez es más fácil crear contenido manipulable, pero los expertos aclaran que todavía hay pistas para detectar imágenes artificiales.
¿Has visto el vídeo de una mascota protegiendo a un niño del ataque de un animal salvaje? ¿O el de un gato montando a un leopardo? Todo este contenido tiene algo en común: ha sido creado por IA. Algunos resultados son más creíbles que otros, pero cada vez hay más personas que se creen lo que ven.
@adslzone Sora es la nueva IA de Open AI que te dejará ALUCINADO. #openai #texttovideo #ia #video #filmmaker
Sora 2, la app social de vídeos artificiales
Adrián Nicieza, divulgador tech especializado en IA, explica en su cuenta oficial de Instagram (@edrian.exe) el peligro de que Sora y similares ofrezcan contenido cada vez más difícil de detectar como falso. En su vídeo, el experto habla de la «red social» Sora 2:
«Todo el contenido creado dentro de ella es generado por inteligencia artificial. El usuario solo tiene que escribir qué vídeo quiere y cómo lo quiere y lo tendrá al toque y con un realismo que hace un año era prácticamente impensable».
Es fácil quitar la marca de agua
Los internautas que utilizan la aplicación social de OpenAI saben que los vídeos no son reales. El problema llega cuando el contenido creado por Sora sale de la plataforma y se publican en Instagram, X, Facebook o TikTok. Pese a que los vídeos artificiales incluyan una marca de agua, esta se puede ocultar fácilmente. Por lo tanto, detectar qué es falso y qué real se ha vuelto más complejo y cada vez más vídeos virales están hechos por IA.
Pistas para detectar vídeos virales falsos
Marjori Haddad, cofundadora de Weplash, una academia de IA, detalla que la lógica es una de las mayores herramientas para saber si una publicación que vemos por redes sociales es falsa. «Tú sabes que ese vídeo está hecho con inteligencia artificial -aclara Haddad en su cuenta de Instagram-. Tú estás seguro porque sucede algo que nadie se espera, pero no sabes cómo comprobarlo». Por ejemplo, si ves a un niño frente a un cocodrilo, sabemos que la actuación instintiva del humano sería gritar y los vídeos de IA no muestran eso.
La profesional también apunta que los vídeos tipo cámara de seguridad son los más realistas de los generados por IA. «No son nítidos; no tienen buena iluminación -comenta Haddad-. La gente ya espera que tengan imperfecciones o imágenes borrosas y por eso la IA es muy bueno recreándolo». Pero, incluso ese contenido, tiene detalles en los que puedes fijarte:
- El tiempo de grabación. La IA no es buena mostrando números. A veces se saltan segundos, como si hubiese pasado tiempo, sin que haya un cambio notorio en la imagen.
- Las texturas que cambian. Haddad pone el ejemplo de la alfombra de la supuesta entrada de una casa como puedes ver en el vídeo.
- Objetos inmóviles se «mueven». En especial, eso pasa con plantas o árboles. Podríamos asociarlo con el viento, pero el movimiento generado se nota artificial.
- Parches. Originalmente, este tipo de vídeos se crean con marcas de agua que, aunque se eliminen, dejan algo de rastro.
De todos modos, la experta de Weplash recomienda dudar de todos los vídeos de seguridad que veamos en Internet. Sobre todo si lo que muestra resulta difícil de creer.
Tal y como comenta Nicieza, este tipo de vídeos es un riesgo para personas mayores o para los usuarios menos informados, que pueden ser fácilmente manipulados. El contenido generado artificialmente puede utilizarse para difundir fake news o estafas online cada vez más creíbles. El experto considera que la alfabetización digital se ha vuelto más necesaria que nunca.
0 Commentaires