Home Apple Así es como funcionará Siri con tecnología Gemini bajo el capó

Así es como funcionará Siri con tecnología Gemini bajo el capó

81

A principios de esta semana, Bloomberg informa que Google y Apple están cerca de llegar a un acuerdo por mil millones de dólares al año para una versión del modelo Gemini que impulsará un Siri modificado el próximo año.

Pero quizás más interesante que el precio sea lo único que realmente afectará la experiencia de todos: su arquitectura. Así es como podría funcionar.

¿1,2 billones de parámetros es mucho?

De acuerdo a Bloombergde InformeGoogle proporcionará a Apple un modelo de parámetros de 1,2 billones, que residirá en los servidores privados de computación en la nube de Apple, impidiendo efectivamente que Google acceda a ellos. En términos de privacidad, es genial.

En cuanto al tamaño, un modelo de 1,2 billones de parámetros no es nada despreciable. Sin embargo, las comparaciones directas con los últimos y mejores modelos de la competencia son bastante complicadas.

Esto se debe a que en los últimos años, los laboratorios de inteligencia artificial de frontera cerrada, como OpenAI, Anthropic y Google, han dejado de publicar los cálculos de parámetros de sus últimos modelos emblemáticos. Esto ha llevado a estimaciones muy diferentes de los recuentos de parámetros reales de ofertas como GPT-5, Gemini 2.5 Pro y Claude Sonnet 4.5. Algunos los sitúan por debajo del parámetro del billón, mientras que otros sugieren que alcanzan varios billones. En realidad, nadie lo sabe realmente.

Por otro lado, una cosa que estos enormes modelos recientes tienen en común es una arquitectura subyacente conocida como Mix of Experts (MoE). De hecho, Apple ya emplea una versión de MoE en su modelo actual basado en la nube, que se rumorea que tiene 150 mil millones de parámetros.

El modelo Gemini de Siri probablemente utilizará una combinación de expertos

Brevemente, MoE es una técnica que construye un modelo con múltiples subredes especializadas llamadas “expertos”. Para cada entrada, solo se activan algunos expertos relevantes, lo que da como resultado un modelo más rápido y más eficiente desde el punto de vista computacional.

En otras palabras, permite a los modelos MoE calcular parámetros muy altos, manteniendo el costo de estimación mucho más bajo que si tuvieran que activar el 100% de los parámetros para cada entrada.

Aquí hay otra cosa acerca de los modelos que adoptan el enfoque MoE: generalmente tienen una cantidad máxima de expertos activos y una cantidad máxima de parámetros activos para cada entrada, lo que resulta en algo como:

Un modelo con un total de 1,2 billones de parámetros puede utilizar 32 expertos, con sólo 2-4 expertos activos por token. Esto significa que en realidad se calculan alrededor de 75-150 B de parámetros en un momento dado, lo que le brinda la potencia de un modelo grande y al mismo tiempo mantiene el mismo costo computacional que ejecutar un modelo mucho más pequeño.

Aquí hay un excelente video realizado por IBM que explica con más detalle cómo funciona MoE:

Para ser claros, no hay informes sobre la arquitectura del modelo que Google podría proporcionar a Apple, en caso de que cierren el trato sobre su supuesta asociación. Pero en 1,2 billones de parámetros, muy Probablemente requeriría que el enfoque del Ministerio de Educación se ejecutara de manera efectiva, dadas las opciones actuales.

Si ese tamaño será suficiente para mantener a Siri con motor Gemini competitivo con los modelos disponibles cuando se lance el próximo año, es una historia diferente.

Ofertas de afiliados en Amazon

Enlace fuente