
El Congreso ha dado una aprobación excesiva a las leyes bilaterales para implementar una multa estricta para distribuir imágenes íntimas no sensibles, que a veces se llama “porno de venganza”. Conocido como la ley de Take It Down, el proyecto de ley ahora se dirige hacia el escritorio del presidente Donald Trump para su firma.
La medida fue introducida por el republicano Sen Ted Cruise de Texas y la Sen Sen Sen By Klubuchar, un Texas, y luego obtuvo el apoyo de la Primera Dama Melania Trump. Los críticos de Bill, que aborda detectives reales y artificiales, son muy amplios y pueden conducir a problemas de censura y primera enmienda.
¿Cuál es la Ley de Tech Down?
El proyecto de ley hace que sea ilegal “expresamente expresamente” o amenazar a una cifra íntima sin el consentimiento de una persona con “dipfakes” hechos en AI. El sitio web y las compañías de redes sociales para esto también deben eliminar estos componentes en 48 horas de notificación de una víctima. Las plataformas deben tomar medidas para eliminar el contenido duplicado. Muchos estados ya han prohibido dipfakes sexualmente explícitos o pornografía de venganza, pero la Ley Take It Down es un raro ejemplo de reguladores federales impuestos a las compañías de Internet.
¿Quién apoya?
La Ley de Take It Down ha logrado un fuerte apoyo bilateral y fue defendido por Melania Trump, quien había planeado en Capitol Hill en marzo que los adolescentes, especialmente las niñas, eran “desgarradores” para ver lo que sucedió por las personas que fueron propagadas por la gente. Se espera que el presidente Trump firme la ley.
Cruise dijo que este sistema fue inspirado por Eliston Berry y su madre, quienes fueron a su oficina después de casi un año de eliminación de “Dipfake” expuesta a AI-AI de Snapchat de 14 años.
Meta apoya la ley que posee y administra Facebook e Instagram.
El portavoz de Meta, Andy Stone, dijo el mes pasado: “Compartir sin consentimiento, real o IA, optimizado, tener una imagen íntima puede desarrollar destructivos y meta y apoya muchos esfuerzos para ayudar a prevenirla”.
Un grupo de expertos respaldado por la tecnología de la tecnología y la Fundación de Innovación de la Tecnología dijo en un comunicado el lunes que la aprobación de Bill es “un paso importante que ayudará a las personas a seguir la justicia si son víctimas de imágenes íntimas no conformes con una imagen de Dipfake generada por AI”.
“Debemos proporcionar protección legal cuando compartan imágenes íntimas sin su consentimiento de abuso en línea, especialmente ahora que estamos creando nuevas oportunidades horribles para la tortura”, estas imágenes pueden ser destruidas por la ley y la reputación de la ley “, dijo Clobuscher en un comunicado después de la aprobación del proyecto de ley el lunes por la noche”. Será capaz y la aplicación de la ley puede ser responsable ante los delincuentes. “
¿Qué es la preocupación por la sensoridad?
Los abogados de libertad de expresión y los grupos de derechos digitales dicen que el proyecto de ley es muy amplio y puede conducir a la censura de imágenes legítimas, incluidas las críticas gubernamentales, incluida la pornografía legal y el contenido de LGBTTU.
“Aunque el proyecto de ley está destinado a resolver un problema grave, los buenos motivos por sí solos no son suficientes para hacer buenas políticas”, dice la Fundación Electronic Frontier sin fines de lucro, un grupo de defensa de los derechos digitales. “La protección legal existente para las víctimas debe fortalecerse e implementarse en lugar de innovar el nuevo sistema de gobierno de Techtown adecuado para los legisladores”.
El EFF dice que la “disposición de Bill Tekdown” se aplica a un contenido mucho extendido, más probable que las definiciones estrechas de las imágenes íntimas no sensibles que se encuentran en otras partes del texto “cualquier imagen asociada con objetos íntimos o sexuales”.
El EFF dice: “La disposición de Techdown también carece de protección crítica contra las solicitudes estúpidas o de mala fe. Los servicios dependerán de los filtros automáticos, que son herramientas infamemente”, dice F. “A menudo se marcan de contenido legal a un uso justo a informes de noticias. Las aplicaciones y los sitios web para el marco de tiempo apretado de la ley deben eliminar la conferencia dentro de las 48 horas, el discurso es suficiente para verificar el discurso”. “.
Como resultado, el grupo dice que las empresas en línea, especialmente pequeñas, carecen de recursos que pasan por el contenido, “tal vez trató de verificar que solo elegirá evitar el riesgo legal estricto ahogando el discurso”.
El EFF dice que el sistema presiona las plataformas para monitorear activamente el discurso “actualmente encriptado el discurso” para resolver la amenaza de responsabilidad.
La Iniciativa de Derechos Civiles Cibernéticos, una no fines de lucro que ayuda a las víctimas de delitos y torturas en línea, dice que el proyecto de ley tiene una “preservación grave” al respecto. Ha llamado a su disposición de Techtown inconstitucionalmente poco claro, un bóbulo inconstitucional y la falta de protección adecuada contra el abuso. “
Por ejemplo, el grupo dice que las plataformas pueden verse obligadas a eliminar las fotografías de la protesta en topless de un periodista en una calle pública, un sutil flash de ferrocarril distribuido por la policía es detectar a los delincuentes, producidos comercialmente materiales sexualmente explícitos o material sexualmente claro que se considera cumple.
(Excepto por el título, esta historia no es editada por el personal de NDTV y se publica a partir de un feed sindicado)))










