Home Noticias ‘Demasiado poderoso para las masas’: Dentro del intento de Anthropic de ganar...

‘Demasiado poderoso para las masas’: Dentro del intento de Anthropic de ganar la guerra de la IA | IA (Inteligencia Artificial)

39

Esta semana, la empresa de inteligencia artificial Anthropic dijo que había desarrollado un modelo de inteligencia artificial tan poderoso que, por un abrumador sentido de responsabilidad, No va a ser liberado al publico

El Secretario del Tesoro de Estados Unidos, Scott Bessant, llamó a los jefes de los principales bancos para conversar sobre el modelo Mythos. El diputado reformista del Reino Unido, Danny Kruger, escribió una carta al gobierno instando a que “Afiliado a la empresa de inteligencia artificial Anthropic cuyos mitos sobre la nube del modelo New Frontier podrían presentar un riesgo catastrófico de seguridad cibernética para el Reino Unido.

Otros se mostraron más escépticos, incluido el notable crítico de IA Gary Marcus, quien dijo: “Dario (Amodei) tiene muchas más habilidades técnicas que Sam (Altman), pero parece haberse graduado de la misma escuela de exageración y exageración”, refiriéndose a los directores ejecutivos de Anthropologie y su rival, OpenAI.

No está claro si la maquinaria antrópica creó a los dioses. Más evidente es que la startup de San Francisco, ampliamente vista como una empresa de inteligencia artificial “responsable”, es brillante en marketing.

En los últimos meses, Anthropic ha disfrutado de un perfil de 10.000 palabras en el New Yorker, dos artículos en el Wall Street Journal y la portada de la revista Time, en la que el rostro de Amodei aparecía, al estilo de un cartel de película, sobre el Pentágono y el Secretario de Defensa de Estados Unidos, Pete Hegseth.

Amodei y el cofundador de Anthropic, Jack Clark, aparecieron en dos podcasts separados del New York Times en febrero, reflexionando sobre preguntas como si su máquina es consciente y si pronto podría “destrozar la economía”. El “filósofo residente” de la compañía habló con el WSJ sobre si la nube, un producto comercial utilizado para intercambiar criptomonedas y atacar misiles, tiene “sentido propio”.

El director ejecutivo de OpenAI, Dario Amody, “tiene muchas más habilidades técnicas” que Sam Altman, dice un crítico de la IA, “pero parece haberse graduado de la misma escuela de exageración y exageración”. Foto: Denis Balibous/Reuters

Se produce en medio de una disputa entre Anthropic y el Departamento de Defensa de EE. UU. en la que, a pesar de construir las herramientas de inteligencia artificial utilizadas por el Pentágono para atacar a Irán, Anthropic ha salido mucho mejor que OpenAI, que se ha ofrecido a ayudar al ejército de EE. UU. a hacer lo mismo pero, tal vez, con menos vallas.

Su líder de medios, Daniel Ghiglieri, destacó las victorias en LinkedIn. “Estoy infinitamente orgulloso de trabajar en Enthropic”, dijo sobre la portada de Time de la compañía, etiquetando a los periodistas involucrados en una publicación sobre la “carrera loca” para cubrir la historia.

Un segmento de 60 minutos de CBS con Amodei “fue uno de esos momentos“Dijo.” “Lo que lo hizo significativo no fue sólo la plataforma. En realidad, fue ver la historia que queríamos contar”.

En un perfil del New Yorker, del periodista Gideon Lewis-Cross, el escribio: “Mentiría si dijera que no estaba nervioso por nuestro primer encuentro en persona… Trabajar con alguien del calibre de Gideon significa esforzarse para expresar las ideas que está desarrollando y estar bien con esa incomodidad”.

(“Apuesto a que eso es lo que todos dicen de ti”, dice mi editor).

Otros relaciones públicas de tecnología se han dado cuenta.

“Claramente están atravesando un momento, pero las empresas que construyen tecnología que cambiará el mundo merecen el mismo escrutinio”, dijo uno. “Accidentalmente filtraron su propio código fuente la semana pasada, luego esta semana reclaman la gestión de las amenazas cibernéticas con un nuevo modelo robusto que sólo ellos controlan. Cualquier otra gran empresa tecnológica se reiría de ella”.

Anthropic publicó accidentalmente partes del código fuente interno de Claude a principios de abril. “No se involucraron ni se expusieron datos confidenciales o credenciales de clientes”, dijo.

¿Qué significa todo esto sobre los indudablemente poderosos mitos de Anthropic?

La Dra. Heidi Khalaf, científica jefe de IA del AI Now Institute, dijo que las capacidades del modelo “no estaban probadas”. “Publicar una publicación de marketing con un lenguaje deliberadamente vago que oscurece la evidencia… plantea dudas si están tratando de obtener más inversiones sin escrutinio”.

“Mitos es un desarrollo real y la Antropología hizo bien en tomarlo en serio”, dice el experto en ciberseguridad ofensiva Jamieson O’Reilly. Pero, dijo, algunas de las afirmaciones de Anthropic, como que encontró miles de “vulnerabilidades de día cero” en los principales sistemas operativos, no eran relevantes para las consideraciones de ciberseguridad del mundo real.

Una vulnerabilidad de día cero es un error de software o hardware desconocido para sus desarrolladores.

“Hemos pasado más de 10 años obteniendo acceso autorizado a cientos de organizaciones: bancos, gobiernos, infraestructura crítica, empresas globales”, dijo O’Reilly. “Durante esos 10 años, a través de cientos de compromisos, la cantidad de veces que necesitábamos vulnerabilidades de día cero para lograr nuestros objetivos desapareció”.

Los manifestantes en San Francisco pidieron a las empresas de inteligencia artificial que detuvieran el desarrollo el mes pasado, marchando hacia las oficinas de Anthropic y OpenAI. Foto: Manuel Orbegozo/Reuters

Otros factores pueden haber contribuido a la decisión de Anthropic de no publicar Mythos.

La empresa tiene recursos limitados y parece estar luchando por proporcionar suficiente potencia informática para permitir que todos sus clientes utilicen sus modelos. tiene Límite de uso activado Sobre el muy popular Claude. Recientemente, dijo que los usuarios tendrían que comprar capacidad adicional además de su suscripción para ejecutar herramientas de terceros como OpenClock. En este punto, es posible que no tenga la infraestructura para respaldar el lanzamiento de una nueva creación publicitada.

Al igual que OpenAI, Anthropic está compitiendo por recaudar miles de millones de dólares y capturar un mercado (aún no definido) de personas que pueden recurrir a sus chatbots como amigos, parejas románticas o asistentes profundamente personalizados, y empresas que pueden usarlos para reemplazar a empleados humanos.

Pero las diferencias entre estos productos son marginales y afectivas, principalmente en cualidades difíciles de cuantificar como “sentido” y “alma” (o más bien, lo que se considera como tales en el caso de un agente de IA). La guerra es para los corazones y las mentes.

“Mythos es un anuncio estratégico para demostrar que están abiertos a hacer negocios”, dijo Khalaf, añadiendo que las restricciones de divulgación de Anthropic impiden que expertos independientes evalúen las afirmaciones de la empresa.

Sugirió que “vemos el mismo libro de estrategias de cebo y cambio utilizado por OpenAI, donde la seguridad es una herramienta de relaciones públicas para ganarse la confianza del público antes de priorizar las ganancias” y: “La propaganda antropomórfica ha logrado desdibujar este cambio mejor que sus rivales”.

Enlace fuente