Gemini Intelligence se anunció apenas un mes antes del gran momento de Apple Intelligence en la WWDC, pero dudo que alguna de las compañías cumpla sus promesas de IA.
Google anunció su nuevo conjunto de funciones de inteligencia artificial bajo el lema Gemini Intelligence durante un evento transmitido el 12 de mayo de 2026. Eso es menos de un mes antes de que comience el evento WWDC 2026 de Apple el 8 de junio.
Por supuesto, esto no es una coincidencia.
Gemini Intelligence promete muchas cosas, algunas de las cuales Apple prometió a los propietarios de iPhone hace casi dos años. Apple aún tiene que desarrollar las funciones personalizadas de Apple Intelligence que se revelaron durante la WWDC 2024.
Esto nos lleva de nuevo a Gemini Intelligence y la afirmación de Google de que se lanzará este verano. Los paralelismos con Apple Intelligence son claros, pero con la ventaja de la IA de Google, es hora de comenzar a cumplir sus promesas.
Para los usuarios de iPhone que miran por encima de la valla, Gemini Intelligence parece convincente. Hay mucho que gustar, pero es imposible mirarlo y preguntarse dónde está Apple Intelligence ahora y por qué Google decidió anunciarlo ahora.
La inteligencia de Géminis se vuelve personal
Anunciado durante el Android Show, no sorprende que Google haya usado sus teléfonos Pixel para mostrar Gemini Intelligence. Los Pixel son la respuesta de Google al iPhone, brindando un control más directo sobre todo.
En esencia, la inteligencia de Géminis consta de cinco rasgos distintos. Todos usan IA para intentar cambiar la forma en que las personas usan sus teléfonos, desde lo mundano hasta lo futurista.
Comenzando con el fin mundano de las cosas, Gemini Intelligence promete facilitar la búsqueda de cosas en la web. Chrome utilizará Gemini para resumir y comparar contenido de diferentes fuentes, mientras que una función de navegación automática reservará citas y realizará otras tareas similares.
Android también eliminará la molestia de rellenar formularios. Utilizando la inteligencia personal de Gemini, Android podrá completar detalles en cuadros de texto para que los usuarios no tengan que escribirlos ellos mismos. Piense en ello como un autocompletado impulsado por IA.
La próxima característica, Rambler, permitirá a los usuarios hablar por su teléfono Android y convertir lo que dicen en texto claro y conciso. Google ya es bastante bueno en reconocimiento y transcripción de voz, por lo que no sorprende que Gemini Intelligence lo consiga.
En la demostración, Google utilizó un escenario de mensaje de texto para mostrar lo que puede hacer la nueva función. Integrado en el teclado Gboard, los usuarios presionan un botón y hablan como si estuvieran manteniendo una conversación.
A continuación, Gboard elimina todos los “ums”, “ahs” y “me gusta”, así como todas las repeticiones o tangentes. El resultado es algo que se parece más al mensaje que desea escribir, pero sin escribir
Una característica de Gemini Intelligence que Apple debería tomar prestada es la capacidad de crear widgets personalizados. La función denominada “Crear mi widget” puede crear un widget completo en función de lo que el usuario quiera mostrar.
Los ejemplos incluyen la creación de un widget que solo muestra la velocidad del viento y si lloverá en lugar de un pronóstico completo. Otro imagina a alguien creando un nuevo widget que muestra una nueva lista de opciones de alimentos cada semana.
La inteligencia de Géminis promete mucho, pero ahora tiene que cumplirlo
Finalmente, llegamos a la característica futurista, y la que Google lideraba cuando presentó Gemini Intelligence. Y esta es una característica que probablemente resulte útil, aunque en circunstancias limitadas.
Esa característica es la automatización de múltiples aplicaciones, con Gemini manejando tareas tediosas sin que el usuario tenga que hacerlo. Gemini podrá reservar una clase de spinning u organizar un viaje a través de Expedia, por ejemplo.
Google dio otro ejemplo de una lista de compras en una aplicación de Notas. Con la lista abierta, un usuario de Android podrá mantener presionado el botón de encendido y pedirle a Gemini que haga el trabajo. Se cerrará y creará un carrito de compras con todos los artículos enumerados, dice Google.
La inteligencia de Géminis promete mucho. Pero al igual que con Apple Intelligence, la pregunta sigue siendo si alguien realmente utilizará estas funciones en la práctica.
Disponibilidad limitada
Google no puede darse el lujo de diseñar funciones para un solo dispositivo. Mientras que Apple puede centrarse en el iPhone, Google tiene que considerar docenas de modelos diferentes en todo tipo de factores de forma.
Por esa razón, en el lanzamiento, Gemini Intelligence estará limitado a los últimos dispositivos Pixel y Samsung Galaxy. Si está utilizando un teléfono de Motorola, por ejemplo, todas las apuestas están canceladas.
En cuanto al calendario, Google dice que varias funciones de Gemini Intelligence comenzarán a implementarse en los dispositivos este verano. Después de eso, comenzará a aparecer en relojes, automóviles, computadoras portátiles e incluso gafas. Pero los detalles sobre cuáles son aún escasos.
¿Búsqueda de título o cambio de juego?
Como mencioné anteriormente, Google eligió el mes anterior a la WWDC para anunciar Gemini Intelligence. Sospecho que Apple estaba ansiosa por presentar sus funciones de IA a la gente antes de mostrar sus propias actualizaciones de IA.
Por supuesto, quienes prestan atención a la tecnología fuera de Apple saben que las conferencias tecnológicas de Google siempre preceden a la WWDC. Queda por ver si esto fue una estratagema deliberada para conseguir algunos títulos fáciles antes de la conferencia anual de desarrolladores de Apple.
Todas las funciones recientemente anunciadas son excelentes, pero la propia historia de Google plantea dudas reales sobre si seguirán existiendo dentro de unos años.
Es fácil preguntarse si las nuevas funciones de Google aprovechan el rumor de la IA o si realmente la utilizan. Y sólo tenemos que mirar su propia historia para ver por qué.
A lo largo de los años, Google ha anunciado varios esfuerzos en materia de funciones de IA activas y personales. Pero no todos ellos siguen existiendo hoy en día.
Si nos remontamos al año 2012, nos encontramos con Google Now. Era una función de la aplicación de Google y se suponía que proporcionaría información de forma proactiva antes de que fuera necesaria. Incluso hubo soporte para iPhone.
Google Now incluso estaba disponible en iPhone y iPad
Google Now utilizará tarjetas contextuales que mostrarán información cuando sea más útil. Por ejemplo, piense en información de vuelos y tiempos de viaje.
Cuatro años después, Google Now estaba muerto y fue reemplazado por el Asistente de Google. Los usuarios lo encontraron demasiado intrusivo y proporcionaban información irrelevante.
En 2018 se presentó la glamorosa presentación de Google Duplex, una IA que realizará llamadas telefónicas para humanos. Los usuarios le dirán a Duplex lo que necesitan y este llamará usando voz AI para completar la tarea.
Pero la función estuvo plagada de problemas. No puede abordar de manera confiable la forma en que pueden cambiar las conversaciones. Luego vinieron las preocupaciones legales y de privacidad.
La pregunta era si era necesario alertar a las personas que atendían llamadas de IA y si simplemente colgarían. En última instancia, Google Duplex en la Web cerrará en 2022 y la tecnología Duplex se implementará en otras propiedades de Gemini.
También hay otros ejemplos. Pero vale la pena destacar dos características que se mantuvieron. Y Apple incluso los copió para Apple Intelligence.
Espera para mí y Pantalla de llamada son funciones que están disponibles en los teléfonos Pixel hoy en día. El primero te espera en una cola de espera, mientras que el segundo filtra las llamadas para que puedas evitar las que no deseas responder.
Algunas de las funciones avanzadas de Google resisten la prueba del tiempo, mientras que otras no. Tendremos que esperar y ver cómo le va a Gemini Intelligence.
El siguiente es la inteligencia de Apple
Apple presentará su nuevo software para iPhone durante la transmisión inaugural de la WWDC 2026 el 8 de junio. Y con eso, esperamos que Apple comparta lo que sigue para Apple Intelligence.
La mayor parte de lo que incluirá pueden ser características que ya hemos visto, pero Apple aún no las ha entregado. Se espera una nueva Siri más personal
Se prometió por primera vez para iOS 18 en 2024 y aún no se ha lanzado. Ese retraso incluso alentó algunas demandas y un acuerdo de demanda colectiva.
La WWDC 2026 finalmente podría brindarle a Siri una actualización muy necesaria
Si el nuevo Siri puede hacer todo lo anunciado anteriormente, tendrá capacidades de automatización similares a Gemini Intelligence. Siri podrá trabajar con y entre aplicaciones mientras comprende el contexto y lo que hay en pantalla.
También se informa que Siri tiene una nueva interfaz similar a un chatbot. Es probable que Apple Intelligence se expanda a nuevas funciones de edición de fotografías, mientras que Safari la usará para agrupar pestañas automáticamente.
Apple y Google tienen una cosa en común
Pero tanto las hojas de ruta de Apple como las de Google enfrentan la misma prueba de credibilidad. Y estos cambios de Apple Intelligence tienen una sensación familiar, que se puede sentir con los anuncios de Gemini Intelligence de Google.
Es un sentimiento difícil de superar: Apple Intelligence está preparada para adquirir nuevas funciones que pocos utilizarán
Incluso si Apple Intelligence y Gemini Intelligence pudieran hacer todo lo que afirman y más, seguirían teniendo el mismo problema básico. Ambos ofrecerán funciones que se mostrarán bien e impresionarán a los usuarios que las utilicen por primera vez.
Luego, seis meses después, muchos usuarios ni siquiera recordarán su existencia.











