La herramienta de video generada por Sora AI puede ser el juguete más nuevo de OpenAI… pero ya está generando una oleada de drama: ¡un influencer está hablando de cómo la usó para falsificar un clip que parece estar mostrando la cámara!
Raya Marfil TMZ dice que el clip falso de Sora, un video deepfake que muestra su pecho expuesto, ilumina el creciente peligro de que las tecnologías de inteligencia artificial no reguladas arrojen contenido profundamente ofensivo y dañino, especialmente utilizando humanos de la vida real como sujetos.
Las empresas de inteligencia artificial como OpenAI, la matriz de Sora, deben asumir una responsabilidad real para proteger a las personas de las violaciones de privacidad e identidad, dijo Strieb.
Avori, un influencer, streamer y estrella de “Battle Camp” y “The Mole” de Netflix, dice que está totalmente a favor del potencial creativo de la IA… pero insiste en que las empresas deben desarrollar el software de forma segura antes de lanzarlo al público.
ICYDK… es una aplicación de Sora que crea videos realistas a partir de mensajes de texto o imágenes de los usuarios. OpenAI ya ha recibido algo de atención esta semana Después de que los usuarios crean videos usando martin luther king jr.Su parecido… es lo que la compañía admite que es una “imagen vergonzosa” del gigante de los derechos civiles.
Avory ahora se está asociando con su equipo y un asesor legal para llevar la pelea directamente a la plataforma… diciendo que espera que este lío genere conciencia y responsabilidad real en el mundo de la IA para que nadie más tenga que pasar por eso.

Ella está pidiendo a la gente que deje de difundir o interactuar con contenido turbio y no autorizado, especialmente material que invade su privacidad sin consentimiento.
Un portavoz de OpenAI respondió a TMZ diciendo que el contenido sexual o pornográfico no está permitido en Sora y que el clip falso de Ivory ya ha sido bloqueado. Admitieron que salió de su sistema, pero insistieron en que estaban creando medidas de seguridad para evitar que volviera a suceder… y agregaron que su tecnología también impide que las personas accedan o recreen dicho contenido.











