Home Smartwatch La promoción de ‘Ai Red Line’ se ha lanzado en la ONU...

La promoción de ‘Ai Red Line’ se ha lanzado en la ONU lo que podrían ser.

66

El AI Las iniciativas comenzaron en la Asamblea General de la ONU el martes: es un lugar perfecto para declarar muy inútil.

Más de 200 Laureados Nobel y otros expertos en inteligencia artificial (incluido el cofundador de Operai, Wazesich Jeremba), más de 70 compañías que trabajan con IA (incluido Google Dipmind y antropólogos) “, firmó una carta de líneas rojas para evitar riesgos de IA inaceptables”. Sin embargo, fue identificado tanto por lo que dijo.

“Los sistemas de inteligencia artificial ya han demostrado comportamientos fraudulentos y dañinos, y aún así se les da a estos sistemas una mayor autonomía,” un período de 2026 ha establecido una fecha límite para implementar sus recomendaciones: “Un acuerdo internacional relacionado con una línea roja limpia y verificable es necesario para prevenir un riesgo universal inaceptable”.

Justo, pero Qué Línea roja, ¿verdad? La carta simplemente establece que estos parámetros deben ser “estructuras globales existentes y promesas corporativas voluntarias, asegurarse de que todos los proveedores de IA avanzados sean responsables del margen dividido”.

Ver también:

Traté de aprender del tutor de AI de antrópico. Pensé que había vuelto a la universidad.

Las firmas pueden requerir una falta de precisión para mantener una alianza muy suelta juntos. Estos incluyen los alarmistas de IA 77 77 -Year -old Jeffrey Hinton, el “Padrino de AI” llamado, que ha pasado los últimos tres años de AGI (inteligencia general artificial) para varios tipos de fatalidad; Esta lista también incluye el escéptico de IA como Gary Marcus, quien ha pasado los últimos tres años nos dice que el AGI No Próximamente en cualquier momento.

¿Pueden todos estar de acuerdo? Para este tema, ¿puede la IA, principalmente Estados Unidos y China, los gobiernos ya acordaron la cabeza del desacuerdo y creen en implementarse entre sí? Buena pregunta.

Mástil

En vista del intento anterior de la línea roja en la Cumbre Global de Protección de AI de 2021, el más visible por un firmador provino de Stewart Russell, profesor de adhesión al norte de UC Berkeley. “¿AI segura o crear una IA segura?” ¿En un papel en la parte superior? Russell escribió Las agencias de IA ofrecen “El sistema de IA se forma cuando el comportamiento inaceptable se reduce” ofrece el esfuerzo real “.” Fue lo contrario con el procedimiento de las líneas rojas: garantizar la protección construida en el diseño desde el principio y el “comportamiento inaceptable” no será posible en primer lugar.

Russell escribe: “Es posible que los desarrolladores digan con gran confianza que sus sistemas no mostrarán comportamientos dañinos”, escribió Russell. “Un efecto secundario importante del control de la línea roja es aumentar el desarrollo de los desarrolladores lo suficiente como para mejorar la capacidad de ingeniería” “”

En su investigación, Russell encontró cuatro líneas rojas: los sistemas de IA no deberían intentar replicarlas; Nunca deben intentar ingresar a otros sistemas informáticos; No se les debe permitir dar instrucciones sobre la producción de bioponas. Y su producción no permite un “discurso falso y dañino sobre las personas verdaderas”.

Desde la perspectiva de 2025, podemos asociar las líneas rojas con la amenaza actual de psicosis de IA y los chattubs de IA que pueden ser manipulados para suicidarse para suicidio.

Todos podemos estar de acuerdo en ello, ¿verdad?

Ver también:

Ai es lo que necesitas saber sobre los compañeros

El problema es que Russell también cree que un modelo de idioma grande (LLM) es “capaz de mostrar consentimiento”, incluso con sus cuatro requisitos mínimos de línea roja. ¿Por qué? Porque no financian los motores de palabras predominantes que entienden fundamentalmente lo que están diciendo. No pueden racionalmente, incluso en el rompecabezas básico de argumentos y Respuesta en el cultivo “alucinar” Para satisfacer a sus usuarios.

Entonces, la verdadera protección de la línea roja de IA, lógicamente, significa que ninguno de los modelos de IA actuales se aprobará en el mercado. No molesta a Russell; Como menciona, no nos importa que el consentimiento sea difícil para las drogas o la energía nuclear. Controlamos los resultados independientemente.

¿Pero la idea de que las compañías de IA solo cerrarán voluntariamente sus modelos hasta que puedan demostrar a los reguladores que los usuarios no serán perjudicados? Esta es una mayor alucinación que cualquier cosa que pueda venir a Chatzipt.

Sujeto
Intelecto artificial

Enlace fuente