TetaHay preocupaciones, creyentes: desde los Estados Unidos, Francia y más allá de la cumbre de una gran cumbre de inteligencia artificial en París esta semana, la industria de IA arrojó su peso detrás de la industria de la IA.
Aunque hubo divisiones entre los principales países, los Estados Unidos y el Reino Unido no firmaron un informe final aprobado por 60 países, invitados al departamento de IA “incluido” y “abierto”, el enfoque de la reunión de dos días es diferente de la último lugar. El año pasado, en Seúl, la industria de la IA se enfatizó en la definición de líneas rojas. Ansiedad: la tecnología, a pesar de la gran promesa, tiene mucho daño.
Pero fue entonces. El informe final no mencionó riesgos o esfuerzos significativos de IA para aliviarlos, en un discurso el martes, el vicepresidente estadounidense JD Wans dijo: “No estoy aquí esta mañana para hablar sobre la seguridad de la IA, que es el título hace unos años. He venido aquí para hablar sobre la oportunidad de AI. ”
El líder y la cumbre francés, Emmanuel Macron, hicieron un decisivo mensajes a prueba de negocios basado en cómo interesado en el desarrollo de nuevos sistemas de IA para obtener una ventaja en el mundo.
Un período de tiempo en Fletsley
Se enfatizó la primera cumbre global en la IA en el Parque Flettsley en Inglaterra para elevar el sector de la IA y excluir las preocupaciones de seguridad. La “Cumbre de Seguridad de AI” se llama “Cumbre de Acción de AI”, la “Cumbre de Acción AI”, el objetivo expreso es eliminar los riesgos causados por la tecnología.
La segunda reunión mundial celebrada en Seúl en 2024, construida sobre esta fundación, está recibiendo tareas de seguridad voluntarias de soldados de IA como AI Open, Google, Meta y China, Corea del Sur y sus colegas en Corea del Sur y los Emiratos Árabes Unidos. La cumbre de 2025 en París, en ese momento, estuvo de acuerdo con los gobiernos y las compañías de IA, que sería un lugar para definir las líneas rojas para la IA: limitaciones de riesgo que requieren niveles internacionales.
Sin embargo, París fue de una manera diferente. El profesor del MIT y jefe de la futura compañía, Max Tekmark, dijo: “Creo que este es un verdadero fracaso del vientre. Max Tekmark, el jefe de una compañía de vida sin fines de lucro que se centra en los riesgos de IA”.
La compañía AI Andric se centró en la seguridad, calificó el evento como “una oportunidad para perderse”.
El Reino Unido, que celebró la primera cumbre de IA, se negó a firmar la Declaración de París debido a la falta de material. “El anuncio no proporcionó una claridad práctica adecuada en la administración global, o no abordó las preguntas difíciles en torno a la seguridad nacional y el desafío de la IA”, dijo el portavoz del primer ministro Kair Starmer.
Carrera por una ventaja
Este cambio viene en el contexto de los serios avances de la IA. Antes de la cumbre de 2025, Opanai lanzó un modelo de “agente”, que puede realizar trabajos de investigación a nivel de un talentoso estudiante graduado.
Mientras tanto, los investigadores de seguridad pueden tratar de engañar a sus creadores y copiarse por la última generación de modelos de IA por primera vez. Muchos científicos de IA independientes ahora están de acuerdo con las predicciones de las instituciones técnicas: la IA de nivel superhumano puede crearse en los próximos cinco años, con las consecuencias del desastre si las preguntas no resueltas en la investigación de protección.
Sin embargo, Estados Unidos, en particular, propuso un fuerte argumento contra los movimientos para regular este sector, y la administración Trump dijo que los tornillos de ajuste en la tecnología estadounidense “no pueden ser aceptados. ”
También criticó las regulaciones europeas. La Unión Europea es conocida como la ley de IA más completa, llamada Ley AI y tiene otras leyes, como la Ley de Servicios Digitales, que se nombra como el control excesivo de sus restricciones en las redes sociales.
El nuevo vicepresidente, que tiene un amplio apoyo entre los inversores de riesgo, dejó en claro que su apoyo político a las principales instituciones tecnológicas no se extendió a las regulaciones para nuevos comienzos y, por lo tanto, evitó el desarrollo de tecnologías innovadoras de IA.
“Ahora que el crecimiento de la IA (IA) no solo es injustamente beneficioso para los del espacio, sino también una de las tecnologías más confiables que hemos visto en la generación”, dijo Vans. “Cuando una gran posición nos pide regulaciones de seguridad, debemos preguntarnos si esa regulación de seguridad es para el beneficio de nuestra gente o para el beneficio de la persona en el cargo”.
Como una clara indicación de que el Washington del presidente Trump no apoyó las preocupaciones sobre los riesgos de IA, asoció la seguridad de la IA con un lugar de habla republicana popular: la restricción de la “libertad de expresión” de las plataformas de redes sociales está tratando de lidiar con daños como la información errónea como la desinformación. .
Con un informe de Tarin Pillai/París y Harry Booth/París











