Así será la nueva Siri con Gemini: fechas, funciones y acuerdos de Apple y Google

  • Apple lanzará una nueva Siri impulsada por Gemini en iOS 26.4, con beta prevista para febrero y despliegue en primavera.
  • La integración permitirá a Siri entender contexto, pantalla y ejecutar acciones complejas dentro de apps, acercándose a un chatbot avanzado.
  • Gemini funcionará dentro de la infraestructura de Apple (en el dispositivo y Private Cloud Compute), sin enviar datos a servidores de Google.
  • El acuerdo con Google ronda los 1.000 millones de dólares anuales y actúa como solución temporal mientras Apple desarrolla sus propios modelos.

nueva Siri con Gemini en dispositivos Apple

La próxima gran evolución de Siri pasa por Google Gemini. Tras años de quejas por el estancamiento del asistente de voz, Apple ha optado por una alianza estratégica con Google para inyectar modelos de inteligencia artificial avanzados en su ecosistema. El resultado será una Siri mucho más contextual, capaz de entender mejor lo que queremos y de manejar tareas complejas sin necesidad de que el usuario vaya saltando de app en app.

Este cambio no se limita a un simple retoque de software: supone una reescritura profunda del “cerebro” de Siri, apoyándose en la tecnología de Gemini pero bajo las reglas de privacidad y control de Apple. La compañía de Cupertino, muy cuestionada por ir por detrás en la carrera de la IA frente a rivales como Google o OpenAI, necesita un golpe de efecto, y lo va a hacer precisamente con esa “nueva Siri con Gemini” que llegará primero a iPhone y después al resto de dispositivos.

Cuándo llegará la nueva Siri con Gemini y en qué dispositivos se verá

Apple maneja un calendario en dos fases para desplegar la nueva Siri. La primera oleada llegará con iOS 26.4, cuya beta está prevista para febrero y cuyo lanzamiento estable se espera para primavera, en una ventana que se sitúa entre marzo y abril. Esta versión será la que ponga por fin en manos de los usuarios las capacidades de IA generativa que la compañía adelantó en su día bajo el paraguas de Apple Intelligence.

En esa primera actualización, Siri empezará a apoyarse en Gemini para tareas de comprensión avanzada, pero sin cambiar todavía por completo su interfaz clásica. Veremos una Siri más lista “por dentro”, que entiende mejor lo que le pedimos y es capaz de moverse entre apps, pero aún no será el chatbot conversacional de largo recorrido que Apple prepara para la siguiente etapa.

Ese salto mayor llegará con iOS 27, iPadOS 27 y macOS 27. En esa generación, prevista para finales de año tras su presentación en la WWDC de junio, la idea es que Siri deje de ser solo un asistente de voz tradicional para comportarse como un chatbot conversacional de largo recorrido, al estilo de ChatGPT o del propio Gemini. Conversaciones largas, contexto persistente, posibilidad de escribir o dictar peticiones y que el sistema entienda cadenas de órdenes complejas formarán parte del núcleo de la experiencia.

Sobre la disponibilidad por modelos, Apple seguirá priorizando sus dispositivos más recientes. Las funciones más avanzadas de la nueva Siri con Gemini se concentrarán en los iPhone de última generación y en los equipos con suficiente potencia para manejar modelos de IA híbridos (en el dispositivo y en la nube de Apple), especialmente en Europa donde las exigencias regulatorias y de privacidad pesan más.

Qué cambios concretos traerá Siri al integrar Gemini

La gran diferencia respecto a la Siri actual será su capacidad para comprender contexto, pantalla y datos personales, en lugar de limitarse a órdenes sueltas. Apple quiere que el asistente pueda actuar de verdad “en nombre del usuario” dentro del sistema y de las aplicaciones, sin que tengamos que estar abriendo menús o buscando funciones a mano.

Entre las funciones que se esperan para esta nueva Siri con Gemini destacan varias áreas clave. Por un lado, la comprensión de lo que aparece en pantalla: el asistente podrá interpretar el contenido visible en el iPhone (un correo, un chat, una web, un documento) y usarlo como contexto para responder o actuar. También podrá tirar de información personal, como correos sobre vuelos o mensajes con reservas, para contestar a preguntas más complejas del tipo “¿a qué hora llega el vuelo de mi madre?” sin que el usuario tenga que especificar cada dato.

Otro pilar será la ejecución de acciones dentro de aplicaciones de forma encadenada. En lugar de pedir cosas muy concretas (“abre Mail”, “escribe un mensaje”), Siri podrá recibir solicitudes de mayor nivel como “prepara un resumen del informe que me mandaron ayer y envíaselo a mi jefa” y encadenar los pasos necesarios utilizando Gemini cuando la tarea requiera un razonamiento más sofisticado.

Apple trabaja además en lo que internamente se ha descrito como funciones de “World Knowledge Answers”, respuestas basadas en conocimiento general obtenido de internet, acompañadas de referencias o citas, de manera similar a lo que ofrecen hoy ChatGPT o Gemini de forma directa. Esto permitirá a los usuarios hacer consultas de información más abiertas sin salir de Siri.

La integración con apps también dará un salto notable. Siri será capaz de activar funciones específicas dentro de aplicaciones solo con la voz: buscar fotos concretas, redactar notas, crear recordatorios complejos o componer correos largos, todo ello con un nivel de comprensión de matices más cercano al de los chats de IA actuales que al asistente de siempre.

Gemini como “cerebro secundario” de Siri: cómo se reparten las tareas

La manera en la que Apple integrará Gemini no se basará en sustituir por completo a Siri, sino en usarlo como un “cerebro secundario” al que recurrir cuando las peticiones se vuelvan demasiado complejas. Para tareas sencillas y rutinarias, seguirá actuando el sistema de siempre, que procesa peticiones de forma muy rápida en el propio dispositivo con modelos locales.

Cuando el usuario formule una petición que requiera razonamiento, interpretación de lenguaje natural más profundo o manejo de grandes cantidades de información, Siri derivará silenciosamente parte del trabajo a Gemini. El usuario, en la práctica, notará que el asistente ahora puede resumir documentos largos, analizar noticias, preparar viajes, encadenar múltiples pasos en diferentes apps o manejar instrucciones con muchos matices.

Uno de los puntos interesantes para los usuarios europeos será la relación entre la nueva Siri con Gemini y el ecosistema de Google. La integración permitirá pedir directamente cosas que hoy obligan a abrir apps de Google: localizar un archivo en Drive, redactar o contestar un correo en Gmail, o preparar un borrador en Docs, todo a través de órdenes a Siri sin tener que ir navegando por menús.

Más allá del texto, el modelo de Google es nativamente multimodal, lo que implica que puede entender de forma combinada texto, audio e imágenes. Al llevar esa capacidad a la cámara del iPhone, Gemini analizará en tiempo real lo que ve el dispositivo y será Siri la que transmita la respuesta al usuario. Es una evolución de la búsqueda visual actual, pero con un salto cualitativo en comprensión y contexto.

En todo caso, la participación de Gemini será transparente y opcional para el usuario. Apple planteará la integración de forma que cada persona pueda decidir si quiere vincular su cuenta y autorizar a Siri a consultar con los modelos de Google. Quien no lo haga seguirá usando una Siri más limitada, pero sin esa conexión externa.

Privacidad, datos y la infraestructura Private Cloud Compute

Uno de los puntos más delicados de “Siri con Gemini” es qué ocurre con los datos. Apple ha insistido en que, pese al uso de tecnología de Google, Gemini no funcionará como un servicio externo clásico dentro del iPhone. En lugar de enviar las peticiones a servidores de Google, las consultas se ejecutarán en el propio dispositivo o en la infraestructura de Apple, conocida como Private Cloud Compute.

Este modelo híbrido se basa en una combinación de chips diseñados por Apple y servidores propios en los que las tareas de IA que requieran más potencia se procesan sin que los datos queden expuestos a terceros. Antes de salir del dispositivo, la información se anonimiza y se le retiran identificadores personales, y la compañía asegura que nada se almacena de forma que pueda vincularse a un usuario concreto.

Según ha subrayado Tim Cook, el acuerdo con Google se ha diseñado específicamente para mantener los estándares de privacidad que Apple lleva años utilizando como bandera. La empresa recalca que ni Google ni otros socios tendrán acceso al contenido que generan los usuarios al interactuar con Siri, incluso cuando esa interacción aproveche modelos de lenguaje avanzados como Gemini.

En la práctica, esto significa que el usuario europeo seguirá teniendo el mismo marco de protección de datos que hasta ahora, pero con un asistente mucho más capaz. Apple se reserva el control de la experiencia y de la seguridad, mientras que Google aporta el músculo algorítmico que permite dar el salto en comprensión y generación de lenguaje.

Esta arquitectura también encaja con la regulación europea y con las crecientes exigencias en materia de soberanía de datos. Para Apple es clave poder decir que no está “entregando” información de sus usuarios a Google, aunque se beneficie de su tecnología, y por eso ha diseñado la integración de Gemini de forma muy distinta a como se ofrece el chatbot directamente desde los servicios de la propia Google.

El acuerdo económico con Google y la estrategia a largo plazo

La cara menos visible de toda esta operación es el componente económico. Diversas fuentes señalan que Apple pagará alrededor de 1.000 millones de dólares al año a Google por el acceso a una versión personalizada de Gemini adaptada a las necesidades de Siri y de Apple Intelligence.

Esta cifra se suma a los ingresos que Google ya obtiene por ser el motor de búsqueda predeterminado en Safari, un acuerdo valorado en más de 18.000 o 20.000 millones de dólares anuales. Desde el punto de vista de negocio, ampliar la relación al terreno de la IA era mucho más sencillo que empezar desde cero con otro socio, tanto en coste como en tiempos.

Apple describe internamente este acuerdo como una solución temporal. La compañía sigue desarrollando sus propios modelos de inteligencia artificial con la idea de, a medio o largo plazo, reducir la dependencia de socios externos y recuperar el control total sobre la tecnología clave, como ha hecho en otras áreas (chips, diseño de hardware, sistemas operativos).

Hasta hace relativamente poco, Apple exploró alternativas como una alianza más profunda con Anthropic o la ampliación de su colaboración con OpenAI. Sin embargo, las negociaciones con algunos de estos actores se complicaron por el coste y las condiciones, mientras que la presión del mercado por ver una respuesta clara en IA no dejaba mucho margen para seguir retrasando decisiones.

En el fondo, la apuesta por Gemini es una muestra de pragmatismo: Apple reconoce que, en este terreno, llegar con retraso supone perder relevancia, y ha preferido apoyarse en quien ya tiene un modelo maduro y escalable mientras termina de construir su propia alternativa. Para los usuarios, esto se traduce en mejoras palpables sin tener que esperar varios años a que la solución 100 % propia esté lista.

Siri como chatbot avanzado: el siguiente paso con iOS 27

La versión de Siri que veremos con iOS 26.4 será, en gran medida, una actualización profunda del motor interno más que un rediseño radical de la experiencia. El auténtico cambio de cara, el que convertirá a Siri en un chatbot al uso, está reservado para la generación siguiente del sistema.

Con iOS 27, Apple tiene previsto que Siri se comporte como un asistente conversacional completo, capaz de mantener diálogos largos, recuperar contexto de mensajes anteriores, recordar preferencias y aceptar instrucciones por escrito además de por voz. Esta evolución alineará al asistente de la manzana con lo que ya ofrecen ChatGPT o Gemini en sus interfaces web y apps dedicadas.

En esa etapa, el usuario podrá pedirle al asistente que genere textos, resuma documentos, analice archivos y ayude en tareas de programación, todo desde el propio sistema. También se espera que pueda realizar búsquedas en internet de forma integrada, generar imágenes y trabajar con contenido que el usuario suba o tenga almacenado en el dispositivo.

La clave estará en cómo Apple transforme esa potencia en algo fácil de usar y coherente con su ecosistema. No se trata solo de tener un modelo potente, sino de integrarlo en el sistema operativo, en las apps nativas y en los flujos diarios de forma que no se perciba como un pegote, sino como una extensión natural de lo que ya hacemos con el iPhone, el iPad o el Mac.

La compañía es consciente de que su reputación con Siri no es precisamente brillante y de que cualquier fallo en esta nueva etapa será observado con lupa. Por eso ha optado por una transición progresiva: primero robustecer el “cerebro” con Gemini y después desplegar la interfaz más ambiciosa cuando tenga claro cómo reaccionan los usuarios y dónde están las fricciones.

Lo que se avecina con la nueva Siri con Gemini es, en la práctica, un cambio de categoría para el asistente de Apple. Pasará de ser una herramienta que muchos utilizaban solo para tareas básicas a convertirse en una pieza central de la experiencia en sus dispositivos, siempre que la implementación cumpla las expectativas y respete las promesas en privacidad, algo especialmente sensible en mercados como el europeo.

Todo apunta a que, en los próximos meses, los usuarios de iPhone en España y en el resto de Europa empezarán a notar una Siri distinta: más atenta al contexto, más capaz de moverse entre aplicaciones y más preparada para entender peticiones complejas, gracias a un Gemini que trabajará en segundo plano pero dentro de la infraestructura de Apple, en un equilibrio delicado entre potencia de IA, negocio y protección de datos.

nueva Siri potenciada con Gemini
Artículo relacionado:
Nueva Siri potenciada con Gemini: así cambia la estrategia de Apple en IA