OpenAI presentó GPT-5.4-Cyber, un nuevo modelo de IA que puede estar dispuesto a aceptar indicaciones aparentemente maliciosas en nombre de la ciberseguridad. Afortunadamente, el desarrollador de ChatGPT no permitirá que eso juegue con su IA menos restrictiva y más libre.
¿Es Claude Mythos de Anthropic un gran truco o una verdadera amenaza a la seguridad? Lo que dicen los expertos.
Anunciado a través de una publicación de blog el martes, GPT-5.4-Cyber es una variante del modelo de lenguaje grande GPT-5.4 disponible públicamente de OpenAI. Según OpenAI, sus modelos de IA de vanguardia como GPT-5.4 hay proteccion Contra usos claramente maliciosos, rechazando las solicitudes de sus usuarios maliciosos como robar credenciales o encontrar vulnerabilidades en el código. Por el contrario, el nuevo modelo cibernético GPT-5.4 de la compañía ha sido entrenado para ser más indulgente y, en su lugar, potencialmente acepta estas indicaciones.
Al describir GPT-5.4-Cyber como “ciberautorizado”, OpenAI dice que el cambio tiene como objetivo permitir que la IA se utilice para medidas defensivas de ciberseguridad, como ayudar a los investigadores a encontrar vulnerabilidades.
“Queremos brindar a los defensores un acceso más amplio a las capacidades fronterizas, incluidos modelos creados para la ciberseguridad”, escribió OpenAI. “Esta es una versión de GPT-5.4 que reduce el umbral de rechazo para trabajos legítimos de ciberseguridad y permite nuevas capacidades para mejorar los flujos de trabajo defensivos”.
Dados los peligros potenciales que plantea la baja seguridad de GPT-5.4-cyber, no todos podrán traspasar de inmediato los límites éticos posiblemente flexibles de la IA. OpenAI dice que está “comenzando con implementaciones iterativas limitadas para proveedores, organizaciones e investigadores de seguridad examinados”. Por lo tanto, actualmente solo los miembros de su programa Trusted Access for Cyber (TAC) tendrán acceso a GPT-5.4-Cyber, y solo en su nivel más alto.
Velocidad de la luz triturable
Introducido en febreroTAC es una red de usuarios que han pasado por el proceso de verificación de identidad automatizada de OpenAI, incluida la realización de una verificación de identificación gubernamental. Una vez aprobado, los usuarios del programa TAC de OpenAI tienen acceso a versiones de sus modelos de IA con menos seguridad, como GPT-5.4-Cyber. OpenAI dice que su objetivo es permitir la investigación, la educación y la programación en ciberseguridad.
No todos los usuarios autorizados por TAC tendrán en sus manos GPT-5.4-Cyber de inmediato. OpenAI dice que los usuarios que aún no forman parte de un nivel superior de TAC pueden solicitar acceso a él, lo que requiere pasar por una autenticación adicional para verificarse como un “defensor cibernético legítimo”.
El lanzamiento de GPT-5.4-Syber se produce apenas una semana después de que Anthropic, competidor de OpenAI, anunciara el Proyecto Glasswing. Al igual que TAC, Project GlassWing es una iniciativa que restringe el modelo de IA Cloud Myths Preview centrado en la ciberseguridad de Anthropic a organizaciones autorizadas seleccionadas. Al afirmar que Claude Mythos Preview “ya ha encontrado miles de vulnerabilidades de alta intensidad”, Anthropic dijo que el Proyecto Glasswing era un intento de garantizar que su modelo de IA sólo se utilizara con fines de ciberseguridad defensiva.
“Dado el ritmo del progreso de la IA, no pasará mucho tiempo antes de que dichas capacidades se expandan, más allá de los actores potenciales que se comprometan a implementarlas de forma segura”. Escribió el antropólogo.
Divulgación: Ziff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril de 2025, alegando que violó los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA.











