Emmanuel Macron respondió a las críticas de Estados Unidos a los esfuerzos de Europa para regular la IA y se comprometió a proteger a los niños del “abuso digital” mientras era presidente del G7 en Francia.
En su intervención en la Cumbre de Impacto de la IA en Delhi, el presidente francés, Elon Musk, pidió salvaguardias más estrictas en medio de la indignación global por el uso de los chatbots Groc para crear miles de imágenes sexuales de niños y las preocupaciones sobre la concentración del poder de la IA en un puñado de empresas.
Sus comentarios fueron repetidos por el Secretario General de la ONU, Antonio Guterres, quien dijo a los delegados, incluidos varios multimillonarios tecnológicos estadounidenses, que “ningún niño debería ser objeto de experimentos incontrolados de IA”.
“El futuro de la IA no puede ser decidido por unos pocos países ni dejarse al capricho de unos pocos multimillonarios”, afirmó Guterres. “La IA debe ser de todos”.
Estaba previsto que Bill Gates hablara, pero se retiró en el último minuto en medio de un renovado escrutinio de sus vínculos pasados con el delincuente sexual infantil convicto Jeffrey Epstein.
El miércoles, el asesor principal de IA de la Casa Blanca, Sriram Krishnan, renovó las críticas de la administración Trump a la regulación de la IA al señalar la ley de IA de la UE.
Dijo a los delegados que continuaría “hablando” contra las leyes que “no son favorables a un empresario que quiera crear tecnología innovadora”.
Pero Macron dijo en la cumbre intergubernamental: “Al contrario de lo que dicen algunos amigos mal informados, Europa no se centra ciegamente en la regulación. Europa es un lugar para la innovación y la inversión, pero también es un lugar seguro y los lugares seguros ganan a largo plazo”.
Investigación publicada este mes UNICEF e Interpol han informado que al menos 1,2 millones de niños en 11 países han visto sus imágenes manipuladas en deepfakes sexualmente explícitos. En algunos países, uno de cada 25 niños (el equivalente a un niño por aula) se vio afectado.
“No hay razón para exponer a nuestros niños en línea a lo que está legalmente prohibido en el mundo real”, afirmó Macron. “Nuestras plataformas, gobiernos y reguladores deberían trabajar juntos para hacer de Internet y las redes sociales un lugar más seguro. Por eso, en Francia, estamos iniciando el proceso de prohibir las redes sociales para niños menores de 15 años”.
Entre los ejecutivos de tecnología que asistieron se encontraba el director ejecutivo de OpenAI, Sam Altman, quien enfrenta un desafío legal por parte de la familia de Adam Raine, de 16 años, quien se quitó la vida después de hablar sobre el suicidio con ChatGPT.
Dario Amodei, codirector ejecutivo de Anthropic, dijo que estaba “preocupado por el comportamiento autónomo de los modelos de IA, su potencial de uso indebido por parte de individuos y gobiernos, y el potencial de desplazamiento económico”.
El primer ministro indio, Narendra Modi, ha dicho que “la IA debe ser segura para los niños y estar orientada a las familias”, comparando la llegada de la IA con la invención del fuego y calificándola de “profunda transformación en la historia de la humanidad”.
Mientras India busca posicionarse como la tercera potencia mundial en inteligencia artificial después de Estados Unidos y China, Google anunció esta semana una inversión de 15 mil millones de dólares en centros de datos y cables submarinos para conectar a India con Estados Unidos y otros países.
Modi dijo que “se debe establecer un nivel de autenticidad para el contenido dentro del mundo digital… la gente debe saber qué es auténtico y qué es generado por la IA”.
Las intervenciones se producen en medio de una creciente preocupación pública por los riesgos sociales de la IA, ya que los modelos más avanzados están controlados por unas cuatro empresas estadounidenses y un puñado de rivales chinos.
Modi ha presentado una visión alternativa, utilizando la población de 1.400 millones de personas de la India como un enorme mercado de crecimiento para las empresas tecnológicas.
Dijo: “Debemos evitar un monopolio de la IA. Muchos países consideran que la IA es un activo estratégico, por lo que se desarrolla en secreto y su disponibilidad se gestiona cuidadosamente.
“Sin embargo, nuestro país, la India, tiene una opinión diferente. Nosotros, como yo, creemos que la tecnología sólo puede beneficiar verdaderamente al mundo cuando se comparte y cuando el código fuente abierto está disponible”.
Sus comentarios parecen estar dirigidos a Estados Unidos, donde los principales modelos de IA no son de código abierto y no pueden usarse ni adaptarse sin permiso. En cambio, los sistemas líderes de China, como Dipsic y Coin, son en gran medida de código abierto.











