
Descargo de responsabilidad: Imagen representativa (generada por IA)
La semana pasada, Estados Unidos presentó un proyecto de ley destinado a combatir los deepfakes de IA y proteger el contenido original para que no se utilice para el entrenamiento de IA.
El proyecto de ley, denominado Ley de Protección del Origen del Contenido e Integridad de los Medios Editados y Desfigurados (Ley COPIED), ha recibido un fuerte apoyo en todo el espectro político estadounidense.
El mes pasado, se presentó otro proyecto de ley del Senado llamado “Take It Down Act”, que aboga por la eliminación de ciertos deepfakes de IA para imágenes íntimas no consensuadas.
En particular, una serie de controversias, incluidas fotografías falsas de desnudos de Taylor Swift generadas por IA, se volvieron virales en X (anteriormente Twitter), Facebook e Instagram en enero, lo que desató un debate a nivel nacional sobre los males de la tecnología de IA.
Además de abordar los deepfakes, la Ley COPIED abordará las preocupaciones de los creadores de contenido, periodistas, artistas y músicos de que la IA se está beneficiando de su trabajo, sin reconocer ni proporcionar la compensación adecuada.
El mes pasado, un informe de Forbes acusó a Perplexity AI, un motor de búsqueda basado en IA, de robar su contenido. A esto le siguió una investigación de Wired, una revista de tecnología con sede en Nueva York, que descubrió que Perplexity estaba acortando sus artículos a pesar de su protocolo de exclusión de robots, invadiendo áreas de su sitio web designadas como prohibidas para los robots de búsqueda.
¿Cómo funcionan los DERECHOS DE AUTOR?
La Ley COPIED permitiría un proceso mediante el cual se establecería un documento digital llamado “Información de procedencia del contenido” similar a un libro de registro para todo el contenido (artículos de noticias, expresiones artísticas, imágenes o videos) que garantizaría la autenticación e identificación de todos. Contenido generado por IA.
También busca disposiciones para que sea ilegal interferir con esta información, ayudando a periodistas y artistas creativos a proteger su trabajo de la IA. Además, el proyecto de ley otorgaría a los funcionarios estatales el poder de hacer cumplir el proyecto de ley, creando una forma de demandar a las empresas de inteligencia artificial por eliminar marcas de agua o usar contenido sin consentimiento ni compensación.
¿Cómo están regulando otros países la IA?
La Unión Europea (UE) tiene las leyes más completas que rigen la IA. A diferencia del enfoque estadounidense, la legislación sobre inteligencia artificial de la UE exige que los estados europeos asuman un papel activo y clasifiquen cada sistema de IA en cuatro categorías según el nivel de riesgo: riesgo inaceptable, IA de alto riesgo, IA de riesgo limitado y riesgo mínimo. AI
Se ha identificado que los sistemas de inteligencia artificial utilizados en China para asignar puntuaciones sociales a cada ciudadano tienen un nivel de riesgo inaceptable y están prohibidos por ley.
En India, aunque aún no se ha redactado una ley reguladora específica de la IA, una directiva del Ministerio de Electrónica y Tecnología de la Información de marzo hizo obligatorio que los sistemas de IA etiquetados como “poco probados” o “poco fiables” solicitaran la aprobación del gobierno antes de su despliegue. . Posteriormente, la directiva fue anulada por otra, revocando el mandato, en una medida que indicaba precaución para no afectar la innovación.