Puede parecer directamente más allá de la ficción de la ciencia, pero los expertos en IA advirtieron que las máquinas no podrían ser obedientes a la humanidad durante mucho tiempo.
Dado que los sistemas de IA crecen en detectives para siempre, muchos creen que llegará el día en que una ‘AI superintendente’ se vuelve más fuerte que sus fabricantes.
Cuando esto sucede, el profesor del Premio Nobel Geoffrey Hinton, un investigador ganador llamado ‘Padrino de AI’, diciendo que II tiene un 10 a 20 por ciento de posibilidades de eliminar a la humanidad.
Sin embargo, el profesor Hinton ha sugerido una forma inusual para que la humanidad pueda evitar el aumento de la IA.
Hablando en la Conferencia AI 4 en Las Vegas, el profesor Hinton de la Universidad de Toronto argumentó que necesitamos programar un programa de IA para mantener el ‘instinto materno’ hacia la humanidad.
El profesor Hinton dijo: ‘El modelo correcto es el único modelo que está controlado por nuestras cosas más inteligentes, que es una madre controlada por su hijo.
‘Este es el único buen resultado.
“Si no va a mis padres, me reemplazará”.

El Premio Nobel: el investigador húmedo ha llamado al ‘Padrino de AI’, si AI no se le da ‘instinto maternal’, la humanidad será eliminada.
El profesor Hinton es conocido por el trabajo líder de “redes neuronales”, que incluye AIS moderna, en 2023 en Google “para hablar libremente sobre el riesgo de IA de su papel”.
Según el profesor Hinton, la mayoría de los expertos están de acuerdo en que la humanidad creará una IA que se excluye en todos los casos dentro de los próximos 20 a 25 años.
Esto significa que por primera vez en nuestra historia, las personas no serán las especies más inteligentes del planeta.
Esta reestructuración del poder cambiará la proporción de terremotos, lo que puede resultar en la extinción de nuestra especie.
El profesor Hinton dijo a los asistentes de AI 4 que AI desarrollaría dos sub -Sogs muy rápidamente, si fueran inteligentes.
‘An’ es sobrevivir … (y) obtener más control del otro subgog. La razón apropiada para creer es que cualquier tipo de agente intentará sobrevivir a la IA ”, explicó.
Para lograr estos objetivos, la IA del Superintendente tendrá problemas para manipular la humanidad de la humanidad, ya que un adulto puede impulsarnos fácilmente como adulto puede sobornar a un bebé con dulce.
Mientras tanto, los sistemas de IA actuales han mostrado sus increíbles habilidades para mentiras, engaño y manipulación para lograr sus objetivos.

El profesor Hinton dice que la única forma de prevenir la IA contra la humanidad es asegurarse de que quiera cuidar a nuestros mejores intereses. Él dice que el único modelo de algo es menos inteligente que controlar algo es una madre y su hijo.
Por ejemplo, la agencia de IA ha descubierto antropológicamente que su Chattabot Claud Opus 4 a menudo se trataba de chantajear a los ingenieros mientras amenazaba con reemplazar durante la prueba de seguridad.
Se le pidió a AI que evaluara correos electrónicos ficticios, implica que se reemplazará pronto y el ingeniero responsable está engañando a su esposa / esposa.
En más del 5 por ciento de los exámenes, Claud Opus intentará chantajear al ingeniero amenazando con publicar el asunto a través del reemplazo. ‘
Dando su extraordinario poder, el profesor Hinton dice que la actitud de ‘Bro de tecnología’ de que la humanidad siempre será dominante en la IA.
“No funcionará”, dijo el profesor Hinton.
Están a punto de ser mucho más inteligentes que nosotros. Tendrán todo tipo de formas de acercarse a ellos ”
La única forma de garantizar que una IA no se elimine para salvarse es para asegurarse de que los objetivos y las aspiraciones coincidan con lo que queremos: un desafío que los ingenieros dicen ‘problema de alineación’.
La solución al profesor Hinton es centrarse en la evolución de la inspiración, y ve cualquier sabio como el único hecho para controlar lo más inteligente.

El profesor Hinton dice que la “ceja tecnológica” es la idea de que las personas siempre son dominantes en la IA no funcionan a la vez cuando hacemos las máquinas más inteligentes que nosotros mismos. Figura: Boston Dynamics Atlas Robot
Una IA con el instinto de una madre, le gustaría proteger y nutrir a la humanidad de alguna manera, incluso si le cuesta a la IA.
El profesor Hinton dice: “Estas madres AI más inteligentes de AI, la mayoría de ellas no quieren deshacerse del instinto materno porque no quieren que muramos”.
Hablando CNNEl profesor Hinton advirtió además que la actitud actual de los desarrolladores de IA era el riesgo de crear AIS de compuesto.
‘La gente se enfoca en hacer estas cosas más inteligentes, pero la inteligencia es la única parte de una entidad; Necesitamos crear su simpatía por nosotros ”, dijo.
‘La idea de que las personas deben ser dominantes y la IA necesita ser obediente, es una especie de idea técnica que no creo que funcionen cuando sean mucho más inteligentes que nosotros.
Sam Altman, el principal funcionario ejecutivo de la IA, que una vez pidió un mayor control de la tecnología emergente, ahora está luchando contra el ‘exceso de control’.
En declaraciones al Senado en mayo de este año, el Sr. Ultman argumentó que las reglas como las personas en la UE serían “catastróficas”.
Altman dijo: “Necesitamos un lugar para movernos y moverse rápidamente”.

Se produce como la personalidad principal de la IA, como Sam Altman (ilustrado) de OpenAi, requiere menos control de sus productos. El profesor Hinton dice que esta actitud puede conducir a la destrucción de la humanidad
Del mismo modo, en una gran conferencia de privacidad en abril, el Sr. Altman dijo que era imposible establecer una salvaguardia de AI antes de ‘los problemas se plantearon’.
Sin embargo, el profesor Hinton argumentó que esta actitud podría causar fácilmente toda la destrucción de la humanidad.
Él dijo: “Si son mucho más inteligentes que nosotros y son mucho más fuertes que nosotros, entonces estaremos tostados si no entendemos ninguna solución de cómo podemos permanecer en el vecindario”.
“Necesitamos una contrapresión sobre los hermanos tecnológicos que dan que no debería haber reglas en la IA”.