Home Técnica Sora cambió el juego de los deepfake. ¿Puedes saber si un vídeo...

Sora cambió el juego de los deepfake. ¿Puedes saber si un vídeo es real o IA?

36

Si has estado en línea, es probable que hayas visto una foto o un video que fue Creado por IA. Sé que me han engañado antes, como lo fui Vídeo viral de un conejo en un trampolín. Pero Sora AI está llevando los videos a un nivel completamente nuevo, por lo que es más importante que nunca descubrir cómo detectar la IA.

Sora es la aplicación hermana de ChatGPT, desarrollada por la misma empresa matriz, OpenAI. Lleva el nombre del generador de vídeo con IA, que se lanzó en 2024. Pero recientemente recibió una importante revisión con un nuevo modelo Sora 2. Una nueva aplicación de redes sociales con el mismo nombre. Aplicaciones como TikTok se ha vuelto viralComprometidos con los entusiastas de la IA encontrar código de invitación. Pero no es como cualquier otra plataforma de redes sociales. Todo lo que ves en Sora es falso; Todos los videos están generados por IA. Sora usó uno Sueño de fiebre deepfake con IA: Inocuo a primera vista, riesgos peligrosos acechan justo debajo de la superficie.


No se pierda nuestro contenido tecnológico imparcial y reseñas basadas en laboratorio. Añadir CNET Como fuente preferida de Google.


Desde un punto de vista técnico, los vídeos de Sora son impresionantes en comparación con los de la competencia. V1 de mitad de viaje Y Mirando Google 3. Los videos de Sora tienen alta resolución, audio sincronizado y una creatividad asombrosa. La característica más popular de Sora, denominada “Cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos tremendamente realistas.

Es por eso que muchos expertos se preocupan por Sora, lo que puede llevar a que alguien cree deepfakes, difunda información errónea y desdibuje la línea entre lo que es real y lo que no lo es. Las figuras públicas y las celebridades son particularmente vulnerables a este deepfake potencialmente peligroso, razón por la cual se favorece a los sindicatos. SAG-AFTRA presionó a OpenAI para fortalecer sus vallas.

Identificar contenido de IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y quienes las utilizamos. Pero no es del todo inútil. Aquí hay algunas cosas que debe buscar para identificar si un video fue creado con Sora

Busque la marca de agua de Sora.

Cada vídeo creado en la aplicación Sora para iOS incluye una marca de agua cuando lo descargas. Es el logotipo blanco de Sora, un ícono de nube, que rebota alrededor del borde del video. Esto es similar a cómo los videos de TikTok tienen marcas de agua.

El contenido con marcas de agua es una de las formas más importantes en que las empresas de inteligencia artificial pueden ayudarnos a encontrar contenido generado por inteligencia artificial. El modelo Gemini “Nano Banana” de Google, por ejemplo, pone marcas de agua automáticamente en sus imágenes. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.

Atlas de IA

Pero las marcas de agua no son perfectas. Por un lado, si la marca de agua es estática (no se mueve), se puede cortar fácilmente. Incluso para eliminar marcas de agua, como Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que no se puede confiar completamente en las marcas de agua por sí solas. Se le preguntó al CEO de OpenAI, Sam Altman, sobre esto dicho La sociedad tiene que adaptarse a un mundo donde cualquiera puede hacer vídeos falsos de cualquiera. Por supuesto, antes de los albores de OpenAI, no existía una forma popular, fácilmente accesible y que no requiriera habilidades para crear esos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.

Comprueba los metadatos

Lo sé, probablemente estés pensando que no hay forma de verificar los metadatos de un video para determinar si es real. Entiendo de dónde vienes; Este es un paso adicional y es posible que no sepas por dónde empezar. Pero es una excelente manera de determinar si un video fue creado con Sora, y es más fácil de hacer de lo que piensas.

Los metadatos son una colección de información que se adjunta automáticamente a un contenido cuando se crea. Esto le brinda más información sobre cómo se creó una imagen o un video. Esto puede incluir el tipo de cámara utilizada para tomar la foto, la ubicación donde se capturó el video, la fecha y hora y el nombre del archivo. Cada foto y video tiene metadatos, ya sean creados por humanos o por IA. Y muchos contenidos generados por IA tendrán certificaciones de contenido que también indiquen su origen en IA.

OpenAI es parte de la Coalición para la Procedencia y Autenticidad del Contenido, que significa Sora Video. incluido Metadatos C2PA. puedes usar Herramienta de verificación de autenticidad de contenido para iniciativas Para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (Parte de la iniciativa de autenticación de contenido C2PA).

Cómo comprobar los metadatos de una foto, vídeo o documento:

1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas probar.
3. Haga clic en Abrir.
4. Consulta la información en el panel lateral derecho. Si está generado por IA, debe incluirse en la sección de resumen de contenido.

Cuando reproduzcas un vídeo de Sora a través de esta herramienta, dirá que el vídeo es “emitido por OpenAI” e incluirá el hecho de que está generado por IA. Todos los videos de Sora deben tener estas credenciales que te permitan confirmar que fueron hechos con Sora.

Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas maneras en que los videos de IA pueden evitar la detección. Si tiene otros videos que no sean de Sora, es posible que los metadatos de la herramienta no contengan las señales necesarias para determinar si están generados por IA. Los vídeos de IA creados con Midjourney, por ejemplo, no están marcados, como confirmé en mis pruebas. Incluso si el video fue creado por Sora, pero luego se ejecuta a través de una aplicación de terceros (como una de eliminación de marcas de agua) y se vuelve a descargar, la herramienta lo identificará como IA.

Captura de pantalla de un vídeo de Sora ejecutado a través de la herramienta de iniciativa de Content Authenticity

La herramienta de verificación de la Iniciativa de Autenticidad de Contenido marcó correctamente que un video que hice con Sora fue generado por IA, junto con la fecha y hora en que lo hice.

Captura de pantalla de Katelyn Chedraoui/CNET

Encuentra otras etiquetas de IA y agrega la tuya propia

Si estás en una de las principales plataformas de redes sociales, como Instagram o Facebook, puedes obtener un poco de ayuda para determinar si algo es IA. Hay meta Sistemas internos implementados IA para ayudar a marcar contenido y etiquetarlo. Estos sistemas no son perfectos, pero puedes ver claramente las etiquetas de las publicaciones marcadas. tik tok Y YouTube Existen principios similares para etiquetar el contenido de IA.

La única forma verdaderamente confiable de saber si algo es generado por IA es si el creador lo revela. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios etiquetar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el título puede ser de gran ayuda para ayudar a todos a comprender cómo se creó algo.

Cuando navegas por Sora, sabes que nada es real. Pero una vez que sales de la aplicación y compartes un video generado por IA, es nuestra responsabilidad colectiva revelar cómo se creó el video. Los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, por lo que nos corresponde a todos dejar lo más claro posible cuándo algo es real o IA.

Lo más importante es tener cuidado.

No existe un método infalible para saber con precisión de un vistazo si un vídeo es real o artificial. Lo mejor que puede hacer para protegerse de ser estafado es no creer automáticamente y sin cuestionar todo lo que ve en línea. Siga su instinto: si algo parece poco realista, probablemente no lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que mira más de cerca. No se limite a mirar rápidamente y desplazarse sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si a veces eres un tonto; Incluso los expertos se equivocan.

(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Enlace fuente