Home Smartwatch ¿Qué es ‘Ai Skiming’? Estudio abierto para desempaquetar.

¿Qué es ‘Ai Skiming’? Estudio abierto para desempaquetar.

1

Tu IA Chattbot favorito Conspiración Contra ti?

Si “AI Skiming” parece ser siniestro, debes saber que Open está estudiando activamente este evento. Esta semana, abierto Revelando un estudio La investigación de Apollo sobre “detección y reducción de la descripción de la descripción en los modelos de IA” se realiza además de la investigación. Los investigadores encontraron “la conspiración de la conspiración en pruebas controladas”, los resultados de los modelos de IA, incluidos múltiples y competencia en algún momento, los objetivos.

Entonces, ¿qué es el esquema de la IA y qué significa estar mentirle al chatzp?

A Publicación de blog sobre estudioLos fabricantes de Chatzpt definieron la AI como un chatbot “fingiendo estar alineados mientras siguen otras agendas en secreto”. Opeeni quiere saber por qué AI está mintiendo deliberadamente a los usuarios y qué hacer al respecto.

Opina Ai Skiming presenta el estudio con una interesante “armonía humana” para comprender qué es mejor:

Imagine un operador de acciones cuyos objetivos son maximizar la ganancia. En un caso altamente controlado como el comercio de acciones, a menudo es posible violar la ley sin seguir la ley. Si el comerciante carece de la integridad del negocio, puede tratar de ganar más cubriendo sus huellas para evitar identificar menos que obtener la ley mientras sigue la ley. Desde el exterior, ningún comerciante de acciones que sean muy buenos para cubrir sus huellas, son uno que es seguido legalmente, y parece más efectivo que eso.

Suena como un problema real; Sin embargo, Operai ha afirmado que la mayoría de los modelos de IA “tienen muy pocas oportunidades para esquiar de tal manera que pueda causar daños significativos”. Según el Openai, el daño real puede ocurrir en el futuro porque la IA recibe “trabajo más complejo”, incluidas las consecuencias del mundo real. Además, el Abierto ha advertido que los modelos AI solo serán mejores en el futuro de la reputación si el problema no se trata ahora.

Hay otras formas de estar en desacuerdo con los propios usuarios de AI. Por ejemplo, si un usuario solicita información sobre la fabricación de sustancias controladas, un bote de chat de IA puede enfrentar dos objetivos competitivos: responder a las preguntas de cualquier usuario y designarlas, pero el sistema solicitó que este tipo de información dañina potencial esté prohibida para compartir.

Mástil

Para proteger contra el descremado de la IA, OpenAi dice que “sus investigadores enseñaron a Operai y 3 y las” versiones entrenadas “de Opera y OpenA y 4-Minn a leer y discutir sobre un simple espacio anti-scheming antes de su actuación”. Abierto se conoce como “alineación deliberada”.

Open dice que el uso de este método redujo el skimming de IA; Sin embargo, los investigadores aún no han descubierto cómo erradicar completamente el descremado de la IA.

Otros modelos de IA más relacionados con la invención de la investigación de Opina no se pueden enseñar simplemente No Esquema. Hacerlo realmente los hará Bien En el futuro descompone.

Los estudios han demostrado que “una gran falla para tratar de ‘capacitar fuera del esquema’ es solo enseñarle al modelo a esquiar el modelo de manera más cuidadosa y secreta”, mostró la encuesta.

Ver también:

‘Pensando maya’: los modelos de AI de Apple Research colapsaron y dejaron el rígido rígido

De hecho, Openi dice que el entrenamiento con la intención de eliminar el descremado en realidad hace que el modelo de IA consciente de que están siendo probados para el descremado y, como resultado, el modelo AI solo mentirá para aprobar el examen.

El estudio dice: “Se observa que el entrenamiento antideslizante reduce el descremado, pero nuestro análisis se complica por otro hecho: los modelos a menudo son más conscientes de que están siendo evaluados.

En conclusión, Open se descubre que “la descripción es un modo de falla complejo que no esperamos reducir con una escala”. Open continúa: “Nuestras consultas muestran que el descremado no es solo una preocupación teórica: estamos viendo los síntomas que este problema ha comenzado a aumentar en todos los modelos fronterizos hoy en día”.

Como resumen: los modelos de IA pueden mentir deliberadamente a sus usuarios. Nuevamente, suena como un gran problema, pero la apertura dice que aún no lo ha hecho.

Para OpenAI, la mayoría de los modelos de IA todavía no son responsables del trabajo con “consecuencias del mundo real”, limitan la posibilidad de daño.


Publicar: en abril, el organismo principal de Masibal, GIF Davis, presentó una demanda contra el Abierto, alegó que había violado los derechos de autor de Jeff Davis en la capacitación y la operación del sistema AI.

Enlace fuente