Atrás quedaron los días en que era fácil detectar una imagen “falsa” en Internet, a menudo simplemente una imagen mal retocada con Photoshop. Ahora, estamos nadando en un mar de videos generados por IA y deepfakes, desde respaldos falsos de celebridades hasta transmisiones falsas de desastres. La tecnología reciente se ha vuelto incómodamente inteligente a la hora de difuminar las líneas entre la realidad y la ficción, haciendo casi imposible discernir lo que es real.
Y las cosas se están calentando rápidamente. Sora de OpenAI ya estaba enturbiando las aguas, pero ahora su “aplicación de redes sociales” viral, Sora 2, es el billete más popular (y más engañoso) de Internet. Es un feed estilo TikTok donde todo es 100% falso. Este escritor lo llama un “sueño febril falso”, y con razón. La plataforma mejora constantemente cuando se trata de hacer que la ficción parezca realista, con importantes riesgos en el mundo real.
Si estás luchando por separar la realidad de la IA, no estás solo. A continuación se ofrecen algunos consejos útiles que le ayudarán a eliminar el ruido y obtener la autenticidad de cada creación inspirada en la IA.
No se pierda nuestro contenido tecnológico imparcial y reseñas basadas en laboratorio. Añadir CNET Como fuente preferida de Google.
Mi experto en IA, Sora, graba vídeos.
Desde un punto de vista técnico, los vídeos de Sora son impresionantes en comparación con los de la competencia. Mitad del viaje V1 Y Mirando Google 3. Tienen alta resolución, audio sincronizado y una creatividad asombrosa. La característica más popular de Sora, denominada “Cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos tremendamente realistas.
Muchos expertos están preocupados por la psoriasis. La aplicación es peligrosa para cualquiera que cree deepfakes, difunda información errónea y difumine la línea entre lo que es real y lo que no lo es. Las figuras públicas y las celebridades son particularmente vulnerables a este deepfake, y sindicatos como SAG-AFTRA han impulsado OpenAI. Fortalecer su barandilla.
La detección de contenido mediante IA es un desafío continuo para las empresas de tecnología, las plataformas de redes sociales y todos los demás. Pero no es del todo inútil. Aquí hay algunas cosas que debe buscar para determinar si un video se creó con Sora.
Busque la marca de agua de Sora.
Cada vídeo creado en la aplicación Sora para iOS incluye una marca de agua cuando lo descargas. Es el logotipo blanco de Sora, un ícono de nube, que rebota alrededor del borde del video. Esto es similar a cómo los videos de TikTok tienen marcas de agua. El contenido con marcas de agua es una de las formas más importantes en que las empresas de inteligencia artificial pueden ayudarnos a encontrar contenido generado por inteligencia artificial. El modelo Gemini “Nano Banana” de Google marca automáticamente sus imágenes. Las marcas de agua son excelentes porque sirven como una señal clara de que el contenido se creó con la ayuda de IA.
Pero las marcas de agua no son perfectas. Por un lado, si la marca de agua es estática (no se mueve), se puede cortar fácilmente. Incluso para eliminar marcas de agua como las de Sora, existen aplicaciones diseñadas específicamente para eliminarlas, por lo que no se puede confiar completamente en las marcas de agua por sí solas. Mientras que el director ejecutivo de OpenAI, Sam Altman preguntado al respectoDijo que la sociedad tiene que adaptarse a un mundo en el que cualquiera puede hacer vídeos falsos de cualquier persona. Por supuesto, antes de Sora, no existía una forma popular, fácilmente accesible y que no requiriera habilidades para hacer esos videos. Pero su argumento plantea un punto válido sobre la necesidad de confiar en otros métodos para verificar la autenticidad.
Comprueba los metadatos
Sé que probablemente estés pensando que no hay forma de verificar los metadatos de un video para determinar si es real. Entiendo de dónde vienes. Este es un paso adicional y es posible que no sepas por dónde empezar. Pero es una excelente manera de determinar si un video fue creado con Sora, y es más fácil de hacer de lo que piensas.
Los metadatos son una colección de información que se adjunta automáticamente a un contenido cuando se crea. Esto le brinda más información sobre cómo se creó una imagen o un video. Esto puede incluir el tipo de cámara utilizada para tomar la foto, la ubicación donde se capturó el video, la fecha y hora y el nombre del archivo. Cada foto y video tiene metadatos, ya sean creados por humanos o por IA. Y muchos contenidos generados por IA tendrán certificaciones de contenido que también indiquen su origen en IA.
OpenAI es parte de la Coalición para la Procedencia y Autenticidad del Contenido, que significa Sora. Vídeo incluido Metadatos C2PA. puedes usar herramienta de verificación De la iniciativa de autenticidad de contenidos para comprobar los metadatos de un vídeo, imagen o documento. Así es como. (Parte de la iniciativa de autenticación de contenido C2PA).
Cómo comprobar los metadatos de una foto, vídeo o documento
1. Navegue a esta URL: https://verify.contentauthenticity.org/
2. Sube el archivo que deseas probar.
3. Haga clic en Abrir.
4. Consulta la información en el panel lateral derecho. Si está generado por IA, debe incluirse en la sección de resumen de contenido.
Cuando reproduzcas un vídeo de Sora a través de esta herramienta, dirá que el vídeo es “emitido por OpenAI” e incluirá el hecho de que está generado por IA. Todos los videos de Sora deben tener estas credenciales que te permitan confirmar que fueron hechos con Sora.
Esta herramienta, como todos los detectores de IA, no es perfecta. Hay muchas formas en que los videos de IA pueden evitar la detección. Si tiene videos que no son de Sora, es posible que los metadatos de la herramienta no contengan las señales necesarias para determinar si están generados por IA o no. Los vídeos de IA creados con Midjourney, por ejemplo, no están marcados, como confirmé en mis pruebas. Incluso si el video fue creado por Sora, pero luego se ejecuta a través de una aplicación de terceros (como una de eliminación de marcas de agua) y se vuelve a descargar, la herramienta lo identificará como IA.
La herramienta de verificación de la Iniciativa de Autenticidad de Contenido marcó correctamente que un video que hice con Sora fue generado por IA, junto con la fecha y hora en que lo hice.
Encuentra otras etiquetas de IA y agrega la tuya propia
Si estás en una de las plataformas de redes sociales como Instagram o Facebook de Meta, puedes obtener un poco de ayuda para determinar si algo es IA. Hay meta sistema interno IA para ayudar a marcar contenido y etiquetarlo. Estos sistemas no son perfectos, pero puedes ver claramente las etiquetas de las publicaciones marcadas. tik tok Y YouTube Existen principios similares para etiquetar el contenido de IA.
La única forma verdaderamente confiable de saber si algo es generado por IA es si el creador lo revela. Muchas plataformas de redes sociales ahora ofrecen configuraciones que permiten a los usuarios etiquetar sus publicaciones como generadas por IA. Incluso un simple crédito o divulgación en el título puede ser de gran ayuda para ayudar a todos a comprender cómo se creó algo.
Mientras Sora se desplaza, sabes que nada es real. Sin embargo, una vez que abandona la aplicación y comparte un video generado por IA, es nuestra responsabilidad colectiva revelar cómo se creó el video. Los modelos de IA como Sora continúan desdibujando la línea entre la realidad y la IA, por lo que nos corresponde a todos dejar lo más claro posible cuándo algo es real o IA.
Lo más importante es tener cuidado.
No existe un método infalible para saber con precisión de un vistazo si un video es real o AI. Lo mejor que puede hacer para protegerse de ser estafado es no creer automáticamente y sin cuestionar todo lo que ve en línea. Siga su instinto y, si algo le parece poco realista, probablemente no lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que mira más de cerca. No se limite a mirar rápidamente y desplazarse sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si a veces eres un idiota. Incluso los expertos se equivocan.
(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).










