Apple lleva años generando una mezcla de fascinación y frustración en todo lo que tiene que ver con la inteligencia artificial. Lidera en diseño, en chips y en experiencia de usuario, pero cuando se trata de IA generativa y asistentes conversacionales, la sensación generalizada es que va varios pasos por detrás de Google, OpenAI o Microsoft. La llegada de Apple Intelligence ha abierto una nueva etapa, pero también ha puesto sobre la mesa todas las dudas acumuladas.
La gran pregunta que sobrevuela cada presentación, cada nuevo iPhone y cada actualización de sistema es sencilla: ¿está Apple aprovechando de verdad la oportunidad histórica que supone la IA? La compañía parece moverse entre retrasos, pactos con terceros y un enfoque muy particular basado en la privacidad y el procesamiento local en el dispositivo. Todo ello configura una estrategia más compleja de lo que parece a primera vista, con riesgos evidentes, pero también con un potencial enorme si consigue ejecutar bien este plan.
Apple, la deuda histórica con la inteligencia artificial
La sensación de que Apple “debe” algo a sus usuarios en materia de inteligencia artificial no es gratuita. Durante años, Siri fue presentada como el futuro de la interacción con el iPhone, pero en la práctica se ha quedado corta: respuestas pobres, poco contexto, dificultades para mantener una conversación y una evolución muy lenta frente a asistentes como Alexa o el propio Google Assistant, que acabaron marcando el paso.
El golpe de realidad llegó con el estreno de Apple Intelligence en 2024, inicialmente solo en inglés y con una promesa clara: nuevas funciones de IA generativa y una Siri completamente renovada. Sin embargo, la nueva versión del asistente se retrasó, pese a que se había anunciado a bombo y platillo. El resultado fue una crisis de credibilidad inusual en la era Tim Cook, con usuarios y analistas cuestionando si Apple tenía realmente la tecnología lista o si se había precipitado con el marketing.
Mientras tanto, el resto de gigantes tecnológicos apostaban fortísimo por grandes modelos de lenguaje y chatbots avanzados. Google desplegaba Gemini, OpenAI seguía ganando tracción con ChatGPT, Microsoft integraba IA en toda su suite y Amazon seguía potenciando Alexa. Apple, en cambio, daba la impresión de ir a remolque, centrada en prometer una experiencia de IA “muy Apple”, pero sin acabar de concretarla en productos tangibles para el gran público.
Este desajuste entre expectativa y realidad ha sido especialmente visible en Siri, que pasó de ser sinónimo de futuro a convertirse en un asistente limitado, pensado más para comandos simples que para conversaciones complejas. La compañía intentó corregir el rumbo con fichajes como John Giannandrea, procedente de Google, pero los proyectos internos para un Siri más ágil y moderno se fueron quedando cortos o directamente se descartaron.
El resultado es un escenario en el que Apple parece obligada a moverse más rápido de lo que le gustaría, sin renunciar a su obsesión por la privacidad ni a su filosofía de lanzar funciones “cuando están maduras”. El problema es que, en IA, el mercado va a otra velocidad y los usuarios ya comparan directamente con experiencias como ChatGPT.
Apple Intelligence: la apuesta por una IA “muy Apple”
Apple Intelligence es la respuesta oficial de la compañía a la ola de IA generativa. No es un único producto, sino un paraguas que agrupa modelos, herramientas y funciones integradas de forma profunda en iOS, iPadOS y macOS. La idea no es competir frontalmente con un chatbot genérico, sino convertir al iPhone, el iPad y el Mac en dispositivos con una inteligencia personal muy contextuada.
La clave de Apple Intelligence está en combinar modelos generativos con el contexto personal del usuario: correos, notas, fotos, apps, notificaciones… Todo ello se procesa mayoritariamente en el dispositivo gracias a los chips propios (A y M), que permiten ejecutar modelos de IA de forma local. Para las tareas más pesadas, se apoya en servidores con chips de Apple, bajo un enfoque que han bautizado como Computación Privada en la Nube.
Uno de los pilares del sistema son las nuevas herramientas de escritura, presentes en Mail, Notas, Pages y otras apps (incluidas las de terceros que se integren). Estas funciones permiten reescribir textos con diferentes tonos, revisar gramática y estilo con sugerencias explicadas, o generar resúmenes en forma de párrafos, listas o tablas. La idea es que cualquier bloque de texto, desde un email importante hasta un apunte de clase, se pueda pulir con ayuda de la IA.
Apple Intelligence también redefine la forma de gestionar la información que recibimos a diario. En Mail, las Priority Messages destacan los correos realmente urgentes en la parte superior de la bandeja de entrada, mientras que los resúmenes de mensajes y las respuestas inteligentes reducen el tiempo que pasamos abriendo y contestando correos. Algo similar ocurre con las notificaciones, que se agrupan con prioridad y se pueden condensar en resúmenes rápidos para no perdernos lo importante.
La IA se extiende incluso al audio y a las llamadas. Notas y Teléfono permiten grabar, transcribir y resumir grabaciones o conversaciones. Cuando una llamada está siendo grabada, todos los participantes son informados, y al terminar, el sistema genera un extracto con los puntos críticos, ideal para reuniones o entrevistas.
Visual Intelligence y el salto hacia dispositivos centrados en IA

Dentro del paraguas de Apple Intelligence, una de las funciones que más futuro apunta es Visual Intelligence. Esta tecnología se encarga de analizar imágenes, ya sean fotos, capturas de pantalla o lo que estamos enfocando en tiempo real con la cámara del iPhone. Podría describirse como la respuesta de Apple a Google Lens, pero potenciada por su integración con el sistema y, curiosamente, aprovechando también tecnología de la propia Google.
Visual Intelligence está disponible en los iPhone 15 Pro y posteriores, y en los iPhone 16 y sucesivos se puede acceder muy rápido desde el nuevo botón de control de cámara, manteniéndolo pulsado. Su filosofía es sencilla: mirar al mundo a través de la cámara y convertir lo que vemos en acciones útiles sin pasos intermedios complicados.
Entre sus capacidades más llamativas están la traducción de carteles o textos en otros idiomas, la creación de eventos en el calendario a partir de un simple póster o invitación, y la identificación de animales, plantas u objetos. No tiene el brillo mediático de un gran chatbot que hable de todo, pero en el día a día es tremendamente útil: enfocas, reconoces y actúas en cuestión de segundos.
Tim Cook ha destacado públicamente Visual Intelligence como una de sus funciones favoritas, y no es casualidad. Las filtraciones que apuntan al futuro de Apple en IA hablan de dispositivos centrados precisamente en la capacidad de “ver” y “escuchar” el entorno: gafas inteligentes, nuevos AirPods y pequeños pines con cámaras y micrófonos que servirían como ojos y oídos de la IA, devolviendo respuestas contextuales en tiempo real.
Este tipo de productos no pretenden sustituir al iPhone, sino acompañarlo. La idea es que la IA se desplace del móvil al entorno, en forma de wearables que interpreten lo que pasa a nuestro alrededor y nos devuelvan ayuda inmediata: desde describir lo que vemos hasta guiarnos en un viaje o asistirnos en tareas cotidianas sin necesidad de mirar constantemente la pantalla.
Image Playground, Genmoji y la nueva creatividad “made in Cupertino”

La apuesta de Apple por la IA no se queda en la productividad: también toca de lleno la parte más creativa y expresiva. Image Playground es la herramienta pensada para generar imágenes en cuestión de segundos, directamente desde el dispositivo y con tres estilos principales: Animation, Illustration y Sketch. Está integrada en Mensajes y cuenta con su propia app dedicada para los que quieran experimentar a fondo.
El funcionamiento de Image Playground es bastante directo: el usuario puede elegir conceptos predefinidos (temas, accesorios, lugares…), describir lo que quiere ver con un texto, seleccionar a alguien de su fototeca para que aparezca en la imagen o escoger un estilo visual determinado. Todas las imágenes se generan en el propio dispositivo, lo que refuerza el mensaje de privacidad y permite jugar con la herramienta sin límites de uso ni dependencia constante de la nube.
En Mensajes, Image Playground añade una capa extra de expresividad. Cuando hablamos de un plan, un viaje o una anécdota en un chat, el sistema puede sugerir automáticamente ideas de imágenes relacionadas con el contexto de la conversación: amigos, actividades, destinos, etc. Así se pueden enviar creaciones visuales muy personalizadas en apenas unos toques, sin salir de la app.
Apple también ha llevado esta función a otras aplicaciones como Notas, Keynote, Freeform o Pages. En Notas, por ejemplo, aparece un icono de varita en la paleta de herramientas del Apple Pencil que permite convertir un garabato en una imagen pulida o generar una ilustración en un espacio vacío a partir del contenido que lo rodea. En productividad y presentaciones, estas funciones permiten enriquecer documentos con gráficos personalizados sin recurrir a bancos de imágenes externos.
Otro punto llamativo son los Genmoji, una evolución del emoji clásico hacia algo completamente personalizable. Con una simple descripción podemos generar un Genmoji original, con variantes para elegir, e incluso basarlo en la cara de un amigo a partir de sus fotos. Como los emojis tradicionales, se pueden usar en respuestas, stickers o reacciones Tapback, dando un toque más personal y divertido a las conversaciones.
Fotos, recuerdos y una Siri que quiere ser de verdad inteligente

El apartado de Fotos es otro de los grandes beneficiados de Apple Intelligence. La aplicación ahora permite buscar usando lenguaje natural, con consultas tan específicas como “Laura haciendo skate con camiseta estampada” o “Sara con pegatinas en la cara”. Los vídeos también se vuelven más manejables, ya que el sistema identifica momentos concretos para saltar directamente a la parte relevante sin tener que ver toda la grabación.
Además, una nueva herramienta de limpieza permite eliminar elementos molestos del fondo de una foto sin estropear al sujeto principal. Es una función que ya hemos visto en otras plataformas, pero aquí está profundamente integrada y optimizada para ejecutarse en el propio dispositivo, reforzando una vez más la narrativa de privacidad.
La función Recuerdos lleva la IA un paso más allá al ayudar a crear montajes de vídeo a partir de una simple descripción. El sistema interpreta el texto, rastrea las fotos y clips más adecuados, organiza la historia por capítulos según los temas que identifica y monta automáticamente un vídeo con narrativa coherente. Incluso sugiere canciones de Apple Music que pegan con el recuerdo, manteniendo el procesamiento de imágenes en el dispositivo para que nada salga del entorno privado del usuario.
En paralelo, Siri intenta por fin dar el salto que se le lleva pidiendo años. Con Apple Intelligence, el asistente gana una comprensión del lenguaje mucho más natural, es capaz de seguir el hilo de una conversación aunque nos equivoquemos al hablar y toma en cuenta el contexto de peticiones anteriores. Además, permite alternar entre voz y texto según lo que nos resulte más cómodo en cada momento, y estrena un diseño renovado con un halo luminoso alrededor de la pantalla cuando está en uso.
Una de las grandes mejoras está en la capacidad de Siri para entender qué ocurre en la pantalla y actuar en consecuencia. Si recibimos una dirección por Mensajes, podemos decir “añade esta dirección a su tarjeta de contacto” y el asistente se encarga de hacerlo sin que tengamos que copiar y pegar nada. Lo mismo se aplica a cientos de nuevas acciones dentro de apps de Apple y de terceros, desde compartir fotos concretas hasta abrir artículos guardados en listas de lectura.
A nivel de contexto personal, Siri empieza a comportarse como un verdadero asistente integrado en el ecosistema. Es posible pedirle que ponga “el podcast que me recomendó Jaime” sin recordar si la recomendación vino por correo o mensaje, o preguntarle “a qué hora aterrizaba mamá” para que busque el vuelo en nuestros correos y lo cruce con la información de seguimiento en tiempo real. La promesa es clara: menos menús y más interacción directa en lenguaje natural.
Computación Privada en la Nube y el nuevo estándar de privacidad
Uno de los puntos donde Apple quiere marcar diferencia frente al resto es la forma de combinar IA y privacidad. Apple Intelligence se apoya en el procesamiento local siempre que es posible, con modelos diseñados para ejecutarse directamente en el iPhone, el iPad o el Mac. Pero hay peticiones tan complejas que requieren más potencia de cálculo, y ahí entra en juego la Computación Privada en la Nube.
Esta arquitectura permite escalar hacia servidores basados en chips de Apple cuando hace falta más músculo, sin renunciar al control sobre los datos. Según la propia compañía, estos servidores no almacenan información personal ni la comparten, y el software que se ejecuta en ellos se publica para que expertos independientes puedan auditarlo. Además, el dispositivo solo se conecta con servidores que han sido verificados criptográficamente.
Este enfoque intenta resolver el gran dilema de la IA moderna: cuanto más contexto y datos se usan, mejor es la experiencia, pero también mayor es el riesgo para la privacidad. Apple apuesta por un modelo híbrido, con el dispositivo como centro de gravedad y la nube como apoyo puntual, todo bajo el paraguas de controles de seguridad y revisión externa.
De cara al usuario, el mensaje es que puede disfrutar de funciones avanzadas sin miedo a que sus correos, fotos o notas acaben entrenando modelos externos de forma opaca. Es un discurso muy alineado con la historia de la marca y con su posicionamiento frente a rivales que basan gran parte de su negocio en la explotación de datos.
Acuerdos con Google y OpenAI: aliados necesarios para no quedarse fuera de la carrera
Aunque Apple insiste en su apuesta por modelos propios y procesamiento local, la realidad es que no puede competir sola en todos los frentes. Por eso ha optado por una estrategia mixta en la que combina desarrollo interno con acuerdos puntuales con gigantes de la IA. Primero llegó la integración de ChatGPT, y después se ha confirmado un pacto todavía más profundo con Google para usar Gemini.
El acuerdo con Google va mucho más allá de una simple conexión con un servicio externo. Apple utilizará modelos Gemini personalizados y la infraestructura en la nube de Google como base para sus futuros modelos fundacionales, los llamados Apple Foundation Models. Estos modelos, en su versión de gama alta (como la versión 11 mencionada internamente), alimentarán capacidades clave de la nueva Siri y otras funciones de Apple Intelligence.
La compañía de Cupertino habría evaluado durante meses distintas opciones antes de decantarse por Gemini como columna vertebral de buena parte de su IA avanzada. Según los análisis de mercado, Apple podría llegar a pagar del orden de miles de millones de dólares anuales por este acceso, una cifra significativa pero asumible si con ello acelera su entrada en la élite de la IA generativa sin tener que construir toda la infraestructura desde cero.
En paralelo, Apple mantiene la integración de ChatGPT en sus plataformas. Siri puede derivar consultas a ChatGPT cuando considera que ese modelo puede ofrecer una respuesta mejor o más creativa, siempre pidiendo permiso al usuario antes de enviar el contenido (texto, imágenes o documentos). Del mismo modo, las herramientas de redacción pueden usar ChatGPT para generar borradores o acompañar textos con imágenes generadas vía Compose.
Estas integraciones llegan acompañadas de salvaguardas adicionales. Las direcciones IP de los usuarios se ocultan y OpenAI no guarda las peticiones cuando se accede sin cuenta vinculada. Si el usuario decide asociar su cuenta de pago, se aplican las políticas estándar de ChatGPT, pero la puerta de entrada sigue siendo el ecosistema de Apple, lo que refuerza su control sobre la experiencia.
Una estrategia de IA deliberadamente lenta… pero financieramente muy calculada
Mientras algunos gigantes tech presumen de inversiones descomunales en data centers y chips para IA, Apple está jugando otra partida. Su enfoque es menos vistoso a corto plazo, pero busca maximizar la eficiencia financiera y la integración de la IA en productos reales, más que liderar rankings de tamaño de modelo o de gasto en GPU.
La compañía ha comunicado planes de inversión masiva en Estados Unidos para los próximos años, con un foco claro en I+D en IA, diseño de silicio propio e infraestructura, pero siempre bajo la premisa de mantener un control férreo sobre costes y retorno. No quiere convertirse en una empresa que queme capital sin traducirlo en experiencias tangibles para millones de usuarios.
Una de las decisiones más importantes ha sido abrir sus modelos fundacionales on-device a desarrolladores. A través del framework de Foundation Models, terceros pueden aprovechar la IA integrada en los dispositivos Apple sin tener que montar su propia infraestructura en la nube, lo que reduce barreras de entrada y anima a crear apps que expriman estas capacidades sin disparar costes.
Este enfoque encaja bien con el ecosistema cerrado pero muy rentable de Apple. Cuanto más útiles sean los dispositivos gracias a la IA, más difícil será salir de su ecosistema, y mayor será el valor percibido por desarrolladores, usuarios y, por supuesto, por los mercados financieros. No es casualidad que los analistas sigan viendo margen de revalorización en la acción de Apple, en buena parte condicionado por cómo ejecute su plan de IA.
Sin embargo, esta prudencia tiene un coste evidente en términos de percepción. Frente a titulares constantes sobre modelos gigantescos y lanzamientos agresivos de la competencia, Apple aparece como el actor que llega tarde, que se lo piensa demasiado y que evita grandes apuestas visibles. El reto es conseguir que, con el tiempo, esa paciencia se traduzca en una posición de liderazgo sostenible y no en una pérdida irreversible de relevancia.
Rumores, cambios internos y el futuro de Siri como chatbot conversacional
Para complicar aún más el tablero, Apple está atravesando una fase de cambios importantes en la cúpula de su área de IA. La salida de John Giannandrea y la incorporación de Amar Subramanya, con experiencia destacada tanto en Microsoft como en Google (donde lideró parte del trabajo en Gemini), indican que la compañía busca un liderazgo más agresivo y con un historial probado en asistentes avanzados.
Los planes filtrados apuntan a una reinvención total de Siri bajo el nombre en clave Campos. Este nuevo asistente se integraría de manera profunda en iOS, iPadOS y macOS, sustituyendo la interfaz actual de Siri y funcionando como un chatbot de IA generativa al estilo de ChatGPT o Gemini, pero incrustado en el corazón del sistema operativo.
Campos contaría con modos tanto de voz como de texto, y se espera que sea la gran estrella de las próximas generaciones de sistemas operativos. Internamente se mencionan versiones específicas para iOS 27, iPadOS 27 (bajo el nombre Rave) y macOS 27 (con el código Fizz), lo que da una idea de la escala del proyecto. Además, se apoyaría en modelos personalizados de Google comparables a Gemini 3, combinados con los Apple Foundation Models.
Mientras eso llega, Apple sigue preparando actualizaciones intermedias que incorporan parte de las capacidades anunciadas ya en 2024: mejor análisis del contenido en pantalla, acceso a datos personales de forma más inteligente, ejecución de acciones complejas dentro de las apps y mayor fluidez en la conversación. Las nuevas funciones se irán desplegando a lo largo de versiones menores del sistema, a medida que la compañía vaya validando su fiabilidad.
A todo esto se suma la presión del mercado respecto al liderazgo de Tim Cook y a la sucesión en la dirección. Ejecutivos como John Ternus, responsable de Hardware ahora también encargado del diseño, suenan como candidatos naturales a tomar el relevo en el futuro. La forma en que Apple gestione este relevo, si llega en plena transición hacia una Apple profundamente marcada por la IA, será clave para mantener la confianza de inversores y socios.
Opciones estratégicas: construir, comprar o depender de terceros
Más allá de los acuerdos actuales, Apple tiene sobre la mesa varias rutas para reforzar su posición en la guerra de la IA. La primera, y más clásica, es la de “yo me lo guiso, yo me lo como”: desarrollar un ecosistema completo de modelos de lenguaje y herramientas propias, integradas en servicios como Safari, Siri, la cámara o un chatbot nativo totalmente diseñado en Cupertino.
El problema de esta vía es que el resto de jugadores lleva años de ventaja. Mientras Google, OpenAI, Anthropic o Perplexity compiten en “primera división”, Apple tendría que remontar varias categorías de golpe. Su enorme capacidad financiera ayuda, pero el talento, los datos y la experiencia acumulada no se compran de la noche a la mañana, y dentro de la propia compañía hay dudas sobre lo realista que es intentar alcanzarles solo con desarrollo interno.
La segunda opción pasa por sacar la chequera y comprar una de las grandes startups de IA bien posicionadas. Se ha hablado con insistencia de posibles adquisiciones, con Perplexity sonando durante un tiempo como candidata ideal para reforzar Siri y otros servicios. Sus modelos y su enfoque encajan bien con lo que Apple podría querer, pero los últimos movimientos de Perplexity, incluyendo ofertas multimillonarias vinculadas a activos como Google Chrome y su creciente valoración, la alejan de cualquier operación razonable.
Esto deja otras candidatas sobre la mesa, como Anthropic o Mistral. Anthropic, creadora de Claude, cuenta con una tecnología muy competitiva y una orientación a la seguridad y al control del modelo que podría casar con la cultura de Apple. Mistral, por su parte, tiene modelos potentes, un foco profesional y una valoración teóricamente más asumible, además de una apuesta fuerte por modelos fundacionales y herramientas para desarrolladores que encajarían con el ecosistema de la manzana.
La tercera vía es mantener el enfoque actual de colaboraciones puntuales y dependencia parcial de terceros. No es el escenario ideal para una empresa tan celosa de su control como Apple, pero puede ser suficiente para no perder el tren mientras madura su propia tecnología. La integración de ChatGPT en Siri y el acuerdo con Google para Gemini son ejemplos de esta estrategia en acción.
En la práctica, Apple ya está probando un poco de cada una de estas rutas: desarrolla modelos internos, compra startups más pequeñas, firma acuerdos estratégicos y explora la posibilidad de adquisiciones más grandes. El siguiente paso será decantarse con más fuerza por una de estas alternativas para no quedarse atrapada en una transición eterna.
Para emprendedores y fundadores tecnológicos, especialmente en mercados como LATAM, el caso de Apple ilustra cómo una compañía puede optar por una estrategia paciente, centrada en la sostenibilidad económica y en la diferenciación a largo plazo, en lugar de quemar capital en una carrera armamentística. La clave está en encajar la IA dentro del producto y del modelo de negocio, no al revés.
Tras años de promesas y retrasos, Apple se juega ahora algo más que su reputación como líder en diseño y hardware. El reto consiste en convertir Apple Intelligence, Visual Intelligence, la nueva Siri y sus acuerdos con gigantes como Google y OpenAI en una experiencia de IA cotidiana, fluida y casi invisible, que realmente haga sentir a los usuarios que sus dispositivos son más inteligentes sin sacrificar privacidad ni estabilidad. Si consigue que esa visión cuaje, el supuesto “retraso” de hoy puede transformarse en una ventaja competitiva duradera; si no, corre el riesgo de que otro actor acabe inventando el próximo gran ecosistema que desplace al iPhone del centro de nuestra vida digital.
