Home Técnica Trump describe un nuevo plan de regulación de la IA: qué contiene...

Trump describe un nuevo plan de regulación de la IA: qué contiene y qué no

21

Nuevo en la Casa Blanca Marco de políticas La regulación de la inteligencia artificial generativa, publicada el viernes, cubre mucho terreno, pero una cosa está clara: el presidente Donald Trump quiere que el gobierno federal establezca las reglas. Y estas reglas parecen ser mucho menos restrictivas de lo que sostienen los consumidores y los defensores de la privacidad.

La revolución de la IA generativa lleva años gestándose y la legislación estadounidense ha tardado en ponerse al día. Esto a pesar de la creciente conciencia sobre los peligros y desafíos de la IA: los peligrosos efectos de los chatbots en la salud mental y el desarrollo infantil, las disputas legales masivas sobre la protección de los derechos de autor, la peligrosa proliferación de deepfakes y estafas impulsadas por la IA, por nombrar algunos.

Senadora Marsha Blackburn introducido Un nuevo paquete de políticas llamado Ley Trump de IA en Estados Unidos fue aprobado por el Congreso el jueves. El proyecto de ley del republicano de Tennessee es un intento de codificar una visión basada en el Plan de Acción de IA 2025 de Trump, al tiempo que explora más detalles legislativos y proporciona orientación sobre la implementación de nuevas leyes (o el cambio de las leyes existentes).

Atlas de IA

Trump sostiene que el gobierno federal debería ser responsable de regular la industria de la IA, y que exigir a las empresas de IA que cumplan con 50 conjuntos diferentes de leyes estatales impediría que Estados Unidos “ganara” la carrera mundial de la IA. Sin embargo, una propuesta para prohibir temporalmente a los estados regular la IA fracasó en julio, cuando fue eliminada en el último minuto de un enorme proyecto de ley presupuestario conocido como “Ley One Big Beautiful Bill”.

Ahora, la Casa Blanca está redoblando sus afirmaciones de estar a cargo, con pocas excepciones. El plan aborda las mayores preocupaciones de la gente sobre la IA: pérdida de empleos, caos en materia de derechos de autor para los creadores, infraestructura en rápida expansión como los centros de datos y la protección de grupos vulnerables como los niños. Pero los críticos dicen que eso no es suficiente para dominar la industria de la IA en rápido crecimiento.

“Es poca protección y mucha promoción de sistemas de inteligencia artificial peligrosos”, dijo en un comunicado Alan Butler, presidente y director ejecutivo del Centro de Información de Privacidad Electrónica. “El pueblo estadounidense merece algo mejor y el Congreso debería hacerlo mejor”.

La nueva ley de IA propuesta por la Casa Blanca

La propuesta de IA de la Casa Blanca para 2026 establece que el Congreso no debería crear un nuevo organismo rector para supervisar las regulaciones de IA, sino que debería permitir que las agencias existentes y los expertos en la materia las regulen como mejor les parezca.

Protección de los niños: Ésta es un área en la que el gobierno federal no impedirá que los estados hagan leyes. Y muchos gobiernos estatales ya están liderando la carga, particularmente en la regulación de los chatbots románticos o de pareja.

El plan para proteger a los niños de los deepfakes impulsados ​​por IA destaca que el material de abuso sexual infantil generado por IA es un gran problema. Proteger a los jóvenes de los efectos nocivos de la IA es una batalla constante, en la que Varios casos de alto perfil Los adolescentes utilizan la IA para autolesionarse y suicidarse.

El plan de políticas de Blackburn incluye lenguaje general sobre la seguridad de los niños en línea. Los proyectos de ley existentes, como la Ley de seguridad infantil en línea y la Norma de protección de la privacidad infantil en línea, están, en teoría, diseñados para proteger a los niños, pero sus defensores y expertos en tecnología dicen que podrían crear Un efecto paralizador sobre la libertad de expresión Y lleva a la censura.

Aunque el marco de IA de Trump aborda la censura, se limita a impedir que las empresas de IA incorporen sesgos ideológicos o partidistas en sus productos. Trump ha criticado previamente lo que él llama IA “débil”, un término que el presidente y sus asistentes han utilizado para atacar ideas como la diversidad, la equidad y la inclusión.

Pérdida de empleo: No son sólo los traductores y las personas que ingresan datos los que están preocupados por perder sus trabajos a causa de la IA: los trabajadores de tecnología tradicional, como codificadores e ingenieros, también lo están. Hay muchas preocupaciones acerca de que la IA interrumpa la fuerza laboral, y gigantes minoristas como Amazon despiden a miles de empleados en nombre de la experiencia en IA. La Casa Blanca ha dicho que se debería utilizar un enfoque “no regulatorio” para centrarse en el desarrollo juvenil y la capacitación de la fuerza laboral en IA.

Infraestructura: En línea con el anterior Plan de Acción de IA de Trump, el marco exige a los gobiernos estatales y locales que agilicen la construcción y las operaciones de los centros de datos. Estas instalaciones son cada vez más controvertidas, y los residentes cercanos informan sobre daños ambientales y estrés en sus redes eléctricas existentes, lo que genera facturas eléctricas más altas.

Varias empresas tecnológicas importantes han acordado recientemente pagar la factura de cualquier aumento en los costos de electricidad, pero no hay forma de hacer cumplir el compromiso voluntario.

Derechos de autor: Uso de material protegido por derechos de autor en la formación de IA. El uso legítimo o la infracción de derechos de autor es uno de los mayores problemas legales en la era de la IA. El plan reitera la posición de la administración de que las empresas de IA están cubiertas por el uso legítimo, lo que significa que no tienen que obtener permiso ni pagar por material protegido por derechos de autor cuando construyen sus modelos.

Pero, dado el creciente número de casos que plantean la misma pregunta al Departamento de Justicia, el gobierno federal debería permitir que esos casos procedan. Hasta ahora, los casos antrópicos y limitados con Meta han obtenido victorias estrechas para las empresas de tecnología, no para los autores.

El documento marco indica que el gobierno federal podría ser un futuro socio de licencias para las empresas de IA, diciendo que “proporcionará recursos para hacer que los conjuntos de datos federales sean accesibles a la industria y el mundo académico en formatos listos para la IA para su uso en el entrenamiento de modelos y sistemas de IA”.

(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en 2025, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

¿El plan de la Casa Blanca es suficiente?

Los grupos de la industria tecnológica elogiaron las propuestas de la administración, mientras que los grupos de defensa del consumidor ofrecieron, en el mejor de los casos, escepticismo.

A declaración Apoyando el plan, la Consumer Technology Association abogó por una regla única para todo el país.

“La IA puede y nos hará mejores, y estamos de acuerdo en que los niños necesitan protecciones especiales, que los derechos de la Primera Enmienda son primordiales, que la falsificación profunda y dañina debe regularse y que el Congreso no debe actuar para limitar que las plataformas de IA dependan de protecciones de uso legítimo”, dijo el grupo comercial de la industria tecnológica.

Pero según Sameer Jain, vicepresidente de políticas del Centro para la Democracia y la Tecnología, el manual del gobierno está plagado de conflictos internos. Si bien pide al gobierno federal que dé prioridad a las normas y leyes estatales sobre el desarrollo de la IA, también dice que el gobierno federal no debería socavar la autoridad estatal.

“El marco de IA de alto nivel de la Casa Blanca contiene algunas declaraciones políticas sólidas, pero su utilidad para los legisladores está limitada por sus contradicciones internas y su incapacidad para abordar tensiones clave entre diferentes enfoques sobre cuestiones importantes como la seguridad de los niños en línea”, dijo Jain. dijo en un comunicado.

Ben Winters, director de IA y privacidad de datos de la Federación de Consumidores de Estados Unidos, dijo que la propuesta prioriza a las grandes tecnologías sobre los consumidores.

“Es alentador ver cierto deseo declarado de proteger a las personas de las estafas generadas por la IA y del uso indebido de datos por parte de menores, pero no es suficiente”, afirmó Winters. dijo en un comunicado. “Necesitamos ver dinero donde su rostro está en protección: más dinero para las agencias de protección al consumidor tanto a nivel federal como estatal. Hasta ahora, no han hecho más que recortarlas y paralizarlas”.

Enlace fuente