Home Apple Por qué Estados Unidos lanzó una red internacional de empresas de defensa...

Por qué Estados Unidos lanzó una red internacional de empresas de defensa de IA

58
0

“La IA es una tecnología como ninguna otra en la historia de la humanidad”, dijo el miércoles en San Francisco la secretaria de Comercio de Estados Unidos, Gina Raimondo. “Mejorar la IA es lo correcto, pero avanzar lo más rápido posible sin pensar en las consecuencias no es lo más inteligente que podemos hacer”.

Los comentarios de Raimondo se produjeron durante la ceremonia inaugural. Añadiendo La Red Internacional de Institutos de Seguridad de IA, una red de Institutos de Seguridad de Inteligencia Artificial (AISI) de 9 países, y la Comisión Europea, reunida por los Departamentos de Comercio y de Estado de EE. UU. El evento reunió a tecnólogos del gobierno, la industria, el mundo académico y la sociedad civil para discutir cómo gestionar los riesgos que plantean los sistemas de IA cada vez más capaces.

Raimondo sugirió que los participantes tuvieran dos principios en mente: “No podemos publicar muestras que pongan en peligro a las personas”, dijo. “En segundo lugar, asegurémonos de que la IA sirva a las personas y no al revés”.

Leer más: Cómo la secretaria de Comercio, Gina Raimondo, se convirtió en la mujer líder en inteligencia artificial de Estados Unidos

La conferencia marca un importante paso adelante en la colaboración internacional sobre la gobernanza de la IA. Los primeros AISI se revelaron durante la Cumbre de Seguridad de IA organizada por el Reino Unido en noviembre pasado. Ellos dos Reino Unido y el A NOSOTROS Los gobiernos anunciaron la creación de sus respectivos AISI como un medio para brindarles la capacidad técnica para evaluar la seguridad de modelos sofisticados de IA. Otros países siguieron su ejemplo; En mayo, en otra cumbre de IA en Seúl, Raimondo anunció la creación de la red.

A Declaración conjuntaLos miembros de la Red Internacional de Institutos de Seguridad de IA, que incluye AISI de EE. UU., Reino Unido, Australia, Canadá, Francia, Japón, Kenia, Corea del Sur y Singapur, establecieron su misión: “Ser un foro. Experiencia técnica de todo el mundo”. mundo”, “… Facilitar una comprensión técnica común de los riesgos y mitigaciones de la seguridad de la IA basada en el trabajo de nuestras organizaciones y la comunidad científica en general”, y “… promover una comprensión y un enfoque comunes sobre la seguridad de la IA en todo el mundo, y Los beneficios de la innovación en IA. Permitirá compartir entre países en todas las etapas de desarrollo”.

Antes de la reunión, el AISI estadounidense, que actuará como presidente inaugural de la red, también anunció un nuevo gobierno. Grupo de trabajo Se centra en los riesgos de seguridad nacional de la tecnología. El Grupo de Trabajo sobre Riesgos Experimentales de la IA para la Seguridad Nacional (TRAINS) reúne a representantes de los Departamentos de Defensa, Energía, Seguridad Nacional y Salud y Servicios Humanos. Estará dirigido por el AISI de EE. UU. y tendrá como objetivo “identificar, medir y gestionar las implicaciones emergentes para la seguridad nacional y la seguridad pública de la tecnología de inteligencia artificial en rápida evolución”, con un enfoque particular en la seguridad radiológica y nuclear, la seguridad química y biológica y la seguridad cibernética. seguridad. , infraestructura crítica y capacidades militares convencionales.

El impulso a la cooperación internacional se produce en un momento de crecientes tensiones entre Estados Unidos y China por el desarrollo de la IA. falta de Destacado de la red. En declaraciones grabadas antes de la reunión, el líder de la mayoría del Senado, Chuck Schumer, destacó la importancia de asegurarse de que el Partido Social Chino “no escriba las reglas del camino”. Más temprano el miércoles, el laboratorio chino DeepSeek declarado Se considera que un nuevo modelo de “razonamiento” compite con el propio modelo de razonamiento o1 de OpenAI, que según la compañía está “diseñado para pensar más” antes de responder.

El martes, el Panel de Revisión Económica y de Seguridad entre Estados Unidos y China, en sus recomendaciones anuales al Congreso desde 2000, recomendó que el Congreso establezca y financie un programa similar al Proyecto Manhattan dedicado a adquirir y competir con una capacidad de inteligencia artificial general (AGI). ”, esta comisión definido “Sistemas que son tan buenos o mejores que las capacidades humanas en todos los dominios cognitivos” y “superan a las mentes humanas más agudas en cada tarea”.

Muchos expertos como Geoffrey Hinton, que ganó el Premio Nobel de Física a principios de este año Trabajar Sobre la inteligencia artificial, han revelado Preocupaciones Esto significa que si se desarrollara la AGI, la humanidad podría no ser capaz de controlarla, lo que tendría consecuencias desastrosas. En una mesa redonda en el evento del miércoles, el director ejecutivo de Anthropic, Dario Amodi-Yar cree Los sistemas similares a los AGI pueden llegar en 2026: los riesgos de “pérdida de control” se citan como una preocupación grave y, en el futuro, actores maliciosos hacen un uso indebido de modelos de alta capacidad con riesgos de bioterrorismo o de socavación de la seguridad cibernética. Amodi respondió una pregunta reveló Un claro apoyo a exigir pruebas de sistemas avanzados de IA, “tenemos que ser muy cuidadosos sobre cómo lo hacemos”.

Mientras tanto, avanza la cooperación internacional práctica en materia de seguridad de la IA. A principios de semana, los AISI de EE. UU. y el Reino Unido compartieron un informe preliminar. Recomendaciones De su evaluación previa al despliegue de un modelo avanzado de IA: una versión mejorada de Anthropics Claude 3.5 Sonnet. La evaluación se centra en evaluar las capacidades biológicas y cibernéticas del modelo, así como su desempeño en las tareas de desarrollo y software y la efectividad de las salvaguardas incorporadas para evitar que el modelo responda a solicitudes maliciosas. Tanto el AISI del Reino Unido como el de EE. UU. descubrieron que estas salvaguardias eran “rutinariamente eludibles”, lo que, según señalaron, era “consistente con investigaciones previas sobre la vulnerabilidad de las salvaguardias en otros sistemas de IA”.

La reunión de San Francisco estableció tres temas prioritarios que “se beneficiarían urgentemente de la cooperación internacional”: gestionar los riesgos del contenido artificial, probar modelos fundamentales y realizar evaluaciones de riesgos para sistemas avanzados de IA. Antes de la reunión, se anunció una financiación de 11 millones de dólares para apoyar la investigación sobre cómo reducir los riesgos del contenido artificial (como la creación y distribución de material de abuso sexual infantil, la facilitación del fraude y la suplantación de identidad). La financiación fue proporcionada por una combinación de agencias gubernamentales y organizaciones filantrópicas, incluidas la República de Corea y la Fundación Knight.

Aunque no está claro cómo afectará la victoria electoral de Donald Trump al futuro del AISI y la política estadounidense de IA, la cooperación internacional en el tema de la seguridad de la IA continuará. El AISI británico tiene otra base en San Francisco Conferencia Esta semana, en conjunto con Centro para la gobernanza de la IA“Acelerar el diseño y la implementación de arquitecturas de seguridad de IA fronteriza”. En febrero, Francia anunció su “Cumbre de acción de IA”, en Inglaterra el pasado noviembre, tras las cumbres celebradas en Seúl en mayo. La Cumbre de Acción sobre IA de 2025 reunirá a líderes de los sectores público y privado, el mundo académico y la sociedad civil mientras actores de todo el mundo buscan encontrar formas de gestionar las capacidades de la tecnología mientras se acelera.

Raimondo destacó el miércoles la importancia de integrar la seguridad con la innovación cuando se trata de algo tan rápido y poderoso como la IA. “Tiene el poder de cambiar la mente humana”, afirmó. “La seguridad es buena para la innovación. La seguridad genera confianza. La confianza acelera la adopción. La adopción conduce a más innovación. Necesitamos ese círculo virtuoso”.

Source link