Home Técnica Los deepfakes están en todas partes: cómo detectar vídeos generados por IA

Los deepfakes están en todas partes: cómo detectar vídeos generados por IA

8

Los vídeos generados por IA son más comunes que nunca. Desde lindos videos de animales hasta contenido fuera de este mundo, estos videos han invadido las redes sociales y son cada día más realistas. Si bien hace un año era fácil detectar un video “falso”, estas herramientas de inteligencia artificial se han vuelto lo suficientemente sofisticadas como para engañar a millones de personas.

Nuevas herramientas de IA, incluidas Sora de OpenAI, Mirando Google 3 Y nanoplátanoSe desdibujó la línea entre la realidad y la fantasía generada por la IA. Ahora, estamos nadando en un mar de videos generados por IA y deepfakes, desde respaldos falsos de celebridades hasta transmisiones falsas de desastres.

Si estás luchando por separar la realidad de la IA, no estás solo. A continuación se ofrecen algunos consejos útiles que le ayudarán a eliminar el ruido y obtener la autenticidad de cada creación inspirada en la IA. Para obtener más información, consulte problema de espalda Necesidades de potencia de vídeo con IA y lo que debemos hacer en 2026 Evite más fallas en la IA.


No se pierda nuestro contenido tecnológico imparcial y reseñas basadas en laboratorio. Añadir CNET Como fuente preferida de Google.


¿Por qué son tan difíciles de encontrar los vídeos de Sora AI?

Desde un punto de vista técnico, los vídeos de Sora son impresionantes en comparación con los de la competencia. Mitad del viaje V1 Y Mirando Google 3. Tienen alta resolución, audio sincronizado y una creatividad asombrosa. La característica más popular de Sora, denominada “Cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos tremendamente realistas.

Sora se une a Veo 3 de Google, otro generador de vídeo con IA técnicamente impresionante. Estas son dos de las herramientas más populares, pero ciertamente no las únicas. Los medios generativos se han convertido en un área de enfoque para muchas empresas tecnológicas importantes en 2025, con modelos de imagen y video preparados para brindar a cada empresa la ventaja que desean en la carrera por desarrollar la IA más avanzada de todos los métodos. Google y Abierto AI Una aparente oferta ha revelado tanto imágenes como vídeos modelos del buque insignia de este año. Superarse unos a otros.

Por eso muchos expertos están preocupados por Sora y otros generadores de vídeo con IA. La aplicación Sora facilita que cualquiera pueda crear videos de aspecto realista que muestren a sus usuarios. Las figuras públicas y las celebridades son particularmente vulnerables a estos deepfakes, y sindicatos como SAG-AFTRA han presionado para fortalecer OpenAI. su barandilla. Otros generadores de vídeo de IA presentan riesgos similares, con la preocupación de inundar Internet con desechos ilógicos de IA y ser una herramienta peligrosa para difundir información errónea.

La detección de contenido mediante IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y todos los demás. Pero no es del todo inútil. Aquí hay algunas cosas que debe buscar para determinar si un video fue creado con Sora.

Busque la marca de agua de Sora.

Cada vídeo creado en la aplicación Sora para iOS incluye una marca de agua cuando lo descargas. Es el logotipo blanco de Sora, un ícono de nube, que rebota alrededor del borde del video. Esto es similar a cómo los videos de TikTok tienen marcas de agua. El contenido con marcas de agua es una de las formas más importantes en que las empresas de inteligencia artificial pueden ayudarnos a encontrar contenido generado por inteligencia artificial. El modelo Gemini Nano Banana de Google marca automáticamente sus imágenes con marcas de agua. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.

Atlas de IA

Pero las marcas de agua no son perfectas. Por un lado, si la marca de agua es estática (no se mueve), se puede cortar fácilmente. Incluso para eliminar marcas de agua como las de Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que no se puede confiar completamente en las marcas de agua por sí solas. Mientras que el director ejecutivo de OpenAI, Sam Altman preguntado al respectoDijo que la sociedad tiene que adaptarse a un mundo en el que cualquiera puede hacer vídeos falsos de cualquier persona. Por supuesto, antes de Sora, no existía una forma popular, fácilmente accesible y que no requiriera habilidades para hacer esos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.

Comprueba los metadatos

Sé que probablemente estés pensando que no hay forma de verificar los metadatos de un video para determinar si es real. Entiendo de dónde vienes. Este es un paso adicional y es posible que no sepas por dónde empezar. Pero es una excelente manera de determinar si un video fue creado con Sora, y es más fácil de hacer de lo que piensas.

Los metadatos son una colección de información que se adjunta automáticamente a un contenido cuando se crea. Esto le brinda más información sobre cómo se creó una imagen o un video. Esto puede incluir el tipo de cámara utilizada para tomar la foto, la ubicación donde se capturó el video, la fecha y hora y el nombre del archivo. Cada foto y vídeo tiene metadatos, ya sean creados por humanos o por IA. Y muchos contenidos generados por IA tendrán certificaciones de contenido que también indiquen su origen en IA.

OpenAI es parte de la Coalición para la Procedencia y Autenticidad del Contenido, que significa Sora. Vídeo incluido Metadatos C2PA. puedes usar herramienta de verificación De la iniciativa de autenticidad de contenidos para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (Parte de la iniciativa de autenticación de contenido C2PA).

Cómo comprobar los metadatos de una foto, vídeo o documento

1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas probar. Luego haga clic en Abrir.
4. Consulta la información en el panel lateral derecho. Si está generado por IA, debe incluirse en la sección de resumen de contenido.

Cuando reproduzcas un vídeo de Sora a través de esta herramienta, dirá que el vídeo es “emitido por OpenAI” e incluirá el hecho de que está generado por IA. Todos los videos de Sora deben tener estas credenciales que te permitan confirmar que fueron hechos con Sora.

Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas maneras en que los videos de IA pueden evitar la detección. Si tiene videos que no son de Sora, es posible que los metadatos de la herramienta no contengan las señales necesarias para determinar si están generados por IA o no. Los vídeos de IA creados con Midjourney, por ejemplo, no están marcados, como confirmé en mis pruebas. Incluso si el video fue creado por Sora, pero luego se ejecuta a través de una aplicación de terceros (como una de eliminación de marcas de agua) y se vuelve a descargar, la herramienta lo identificará como IA.

Herramienta de validación de contenido

La herramienta de verificación de la Iniciativa de autenticidad de contenido marcó correctamente un video que creé con Sora como generado por IA con la fecha y hora en que lo creé.

Kidrouni/CNE

Encuentra otras etiquetas de IA y agrega la tuya propia

Si estás en una de las plataformas de redes sociales como Instagram o Facebook de Meta, puedes obtener un poco de ayuda para determinar si algo es IA. Hay meta sistema interno IA para ayudar a marcar contenido y etiquetarlo. Estos sistemas no son perfectos, pero puedes ver claramente las etiquetas de las publicaciones marcadas. tik tok Y YouTube Existen principios similares para etiquetar el contenido de IA.

La única forma verdaderamente confiable de saber si algo es generado por IA es si el creador lo revela. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios etiquetar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el título puede ser de gran ayuda para ayudar a todos a comprender cómo se creó algo.

Mientras Sora se desplaza, sabes que nada es real. Sin embargo, una vez que abandona la aplicación y comparte un video generado por IA, es nuestra responsabilidad colectiva revelar cómo se creó el video. Los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, por lo que nos corresponde a todos dejar lo más claro posible cuándo algo es real o IA.

Lo más importante es tener cuidado.

No existe un método infalible para saber con precisión de un vistazo si un video es real o AI. Lo mejor que puede hacer para protegerse de ser estafado es no creer automáticamente y sin cuestionar todo lo que ve en línea. Siga su instinto y, si algo le parece poco realista, probablemente no lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que mira más de cerca. No se limite a mirar rápidamente y desplazarse sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si a veces eres un idiota. Incluso los expertos se equivocan.

(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Enlace fuente