Home Smartwatch La política de seguridad de IA de Anthropic ha cambiado solo por...

La política de seguridad de IA de Anthropic ha cambiado solo por este motivo

28

Cuando Anthropic se lanzó hace varios años, la compañía quería una “carrera hacia la cima” en inteligencia artificial en toda la industria, en lugar de una carrera por los clientes y el dominio del mercado que, sin darse cuenta, conducía a riesgos de seguridad catastróficos.

Entonces Anthropic adoptó principios y políticas de seguridad que esperaba que sus competidores también implementaran. En algunos casos, empresas como Google y OpenAI lo han hecho, según Anthropic. Aún así, las esperanzas de Anthropic no “daron resultado” como la compañía esperaba, según un Publicación de blog publicada el martes..

La publicación anunció que Anthropic, creador del chatbot de IA Claude, está cambiando las prácticas de seguridad básicas para enfrentar lo que considera desafíos modernos.

Ver también:

Aplicaciones en la nube: cómo Anthropic integrará Slack, Canva y más

En particular, los modelos antropológicos ya no detendrán automáticamente el desarrollo si éste puede considerarse peligroso; En cambio, considerará las acciones de sus competidores y si lanzarán modelos con capacidades similares. Anteriormente, Anthropic se comprometió con salvaguardias que minimizarían el riesgo absoluto de sus modelos, independientemente de si otros desarrolladores de IA hacían lo mismo.

“El entorno político se ha desplazado hacia la priorización de la competencia de la IA y el crecimiento económico, mientras que las discusiones basadas en la seguridad aún tienen que ganar un impulso significativo a nivel federal”, escribió la compañía. “Seguimos convencidos de que la participación gubernamental efectiva en la seguridad de la IA es necesaria y alcanzable, y nuestro objetivo es continuar una conversación basada en la evidencia, los intereses de seguridad nacional, la competitividad económica y la confianza pública. Pero esto está demostrando ser un proyecto a largo plazo, no algo que sucederá a medida que la IA se vuelva más capaz o supere ciertos umbrales”.

Aunque Anthropic dice que su objetivo es seguir mejorando la seguridad, su última decisión refleja el ritmo vertiginoso al que los competidores están lanzando nuevos modelos.

Anthropic también está bajo intensa presión esta semana por parte del Departamento de Defensa de Estados Unidos, que Empresa presionada Permitir que los militares utilicen sus herramientas de inteligencia artificial para cualquier propósito, incluido el despliegue de armas autónomas sin vigilancia masiva ni supervisión humana.

Anthropologie aún no se ha basado en esos puntos en las negociaciones contractuales con el Departamento de Defensa, lo que supuestamente provocó la ira del Secretario de Defensa, Pete Hegseth, quien amenazó con cortar los vínculos de la compañía con el ejército. Informes Axios.

Anthropologie participó en un programa piloto de IA para análisis de imágenes relacionadas con el ejército con Google, OpenAI y xAI. De acuerdo a New York Times. Aunque Claude era el único chatbot que trabajaba en el sistema de clasificados del gobierno, un funcionario del Pentágono dijo que Anthropic podría ser reemplazada por otra empresa.


Divulgación: Ziff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril de 2025, alegando que violó los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA.

sujeto
La inteligencia artificial es un bien social

Enlace fuente