Home Noticias Código de Claude: código fuente de fugas antropológicas para herramientas de ingeniería...

Código de Claude: código fuente de fugas antropológicas para herramientas de ingeniería de software de IA | Tecnología

22

Anthropic liberó accidentalmente parte del código fuente interno de su asistente de codificación impulsado por inteligencia artificial, Claude Code, debido a un “error humano”, dijo la compañía el martes.

Un archivo de uso interno incluido por error en una actualización de software apuntaba a un archivo que contenía alrededor de 2.000 archivos y 500.000 líneas de código, que se copió rápidamente en la plataforma de desarrollo GitHub. Una publicación de X que compartía un enlace al código filtrado tuvo más de 29 millones de visitas a primera hora del miércoles, y una versión reescrita del código fuente rápidamente se convirtió en el repositorio descargado más rápido en GitHub. Emitido antropológicamente Solicitud de eliminación de derechos de autor Para intentar contener la difusión del código. En Code, los usuarios vieron planos para un asistente de codificación estilo Tamagotchi y un agente de IA siempre activo, según borde.

“Antes de hoy, un lanzamiento de código en la nube incluía algún código fuente interno. No se involucraron ni divulgaron datos o credenciales confidenciales del cliente”, dijo un portavoz de Anthropic. “Esto fue un problema de embalaje de lanzamiento debido a un error humano, no una violación de seguridad”.

El código fuente abierto se relacionaba con la arquitectura interna de la herramienta, pero no contenía información confidencial sobre la nube, el modelo de inteligencia artificial subyacente de Anthropic.

El código fuente de Claude Code se conocía parcialmente, ya que desarrolladores independientes realizaron ingeniería inversa a la herramienta. El código fuente de una versión anterior del Asistente se publicó en febrero de 2025.

El código en la nube se ha convertido en un producto clave para Anthropic, a medida que la base de clientes de pago de la empresa sigue creciendo. TechCrunch Informe Las suscripciones pagadas la semana pasada se han más que duplicado este año, según una portavoz de Antropología. El chatbot Claude de Anthropic ha ganado popularidad a pesar de la disputa del director ejecutivo Dario Amody con el Pentágono; Claude encabezó la lista de Apple de las mejores aplicaciones gratuitas en EE. UU. hace más de un mes. Amodei se negó a dar marcha atrás en las líneas rojas en torno al uso de tecnología de vigilancia masiva y armas totalmente autónomas por parte de su empresa.

Esta es la segunda filtración de datos de Anthropic en las últimas semanas. suerte primero Informe Una infracción separada también señaló que la empresa estaba almacenando miles de archivos internos en sistemas de acceso público. Incluía un borrador de una publicación de blog que hacía referencia a “Mythos” y un próximo modelo conocido como “Carpincho”.

A algunos expertos les preocupa que la filtración sugiera vulnerabilidades de seguridad interna dentro de Anthropic. Esto puede resultar especialmente preocupante para una empresa centrada en la seguridad de la IA.

Las filtraciones podrían ayudar a competidores como OpenAI y Google a comprender mejor cómo funcionan los sistemas de inteligencia artificial de Cloud Code. El diario de Wall Street Informe Las filtraciones recientes incluyen información comercialmente sensible, como herramientas e instrucciones para codificar modelos de IA para que actúen como agentes.

La última infracción se produce semanas después de que el gobierno de EE. UU. designara a Anthropic como un riesgo para la cadena de suministro; Los antropólogos están luchando contra esos cargos en los tribunales. La semana pasada, un juez de distrito de Estados Unidos otorgó una orden judicial temporal para bloquear la designación.

Enlace fuente