Apple lleva meses moviendo ficha para convertirse en un referente en dispositivos con inteligencia artificial integrada, y el siguiente paso apunta directamente a nuestra cara: unas gafas inteligentes conectadas al iPhone que usarán cámaras, sensores y audio para entender el entorno en tiempo real. La compañía quiere ir más allá del móvil sin sustituirlo, apoyándose en una nueva generación de Siri mucho más capaz.
Aunque la apuesta por Apple Intelligence avanza a un ritmo más lento de lo que muchos esperaban, en Cupertino trabajan con un horizonte muy claro: poner en el mercado unas gafas inteligentes con IA alrededor de 2027, acompañadas por otros accesorios que amplíen el ecosistema. El objetivo es que el iPhone actúe como cerebro central mientras distintos dispositivos —gafas, colgante y AirPods— ponen los ojos, los oídos y el contexto.
Unas gafas inteligentes pensadas para usarse a diario

Varios informes coinciden en que el producto estrella de esta estrategia serán unas gafas inteligentes de Apple sin pantalla en los cristales, muy alejadas del concepto de casco de realidad mixta que representan las Vision Pro. Aquí no se busca inundar el campo de visión con elementos virtuales, sino ofrecer una experiencia discreta basada en audio, cámaras y sensores que se apoyan en el iPhone.
Las gafas están concebidas como un dispositivo para llevar durante todo el día, más parecido a unas gafas de sol o de vista convencionales que a un casco tecnológico voluminoso. Podrán utilizarse para hacer llamadas, reproducir música, invocar a Siri y realizar acciones guiadas por lo que el usuario está viendo, todo ello sin necesidad de sacar el teléfono del bolsillo cada dos por tres.
En lugar de recurrir a un socio del sector óptico, Apple ha decidido diseñar internamente las monturas en distintos tamaños y colores, con materiales de alta calidad y un acabado que quiera competir en serio con marcas de gafas tradicionales. Los primeros prototipos se basaban en marcos comerciales a los que se añadían cámaras y electrónica, pero esa etapa ya habría quedado atrás en favor de un diseño propio más pulido.
Según las filtraciones, los modelos actuales ya integran batería y componentes en la propia montura, superando así las primeras pruebas en las que las gafas dependían de un cable conectado a un paquete de baterías externo y al iPhone. Esta integración es clave si se pretende que el dispositivo resulte cómodo de llevar en el día a día, especialmente en mercados como el europeo, donde el factor estético suele pesar tanto como la función.
Dos cámaras y mucha IA: cómo funcionarán las gafas

La clave de estas gafas estará en su sistema de doble cámara combinado con visión por ordenador. Los prototipos filtrados incluyen una lente de alta resolución, pensada para capturar fotos y vídeos de buena calidad, y una segunda cámara dedicada al análisis del entorno: medir distancias, identificar objetos, leer texto y alimentar a los modelos de IA con información visual constante.
La idea es que Siri sea capaz de entender lo que el usuario está mirando en cada momento. Eso abre la puerta a situaciones tan cotidianas como preguntar por los ingredientes de un plato en un restaurante, pedir que identifique un edificio histórico mientras caminamos por una ciudad europea o solicitar la lectura de un cartel para convertir automáticamente esa información en un evento del calendario.
Otra de las funciones que se barajan es el uso de las gafas como asistente de navegación contextual. En lugar de limitarse a indicaciones genéricas, el sistema podría usar puntos de referencia visuales —un edificio concreto, un vehículo, un monumento— para dar instrucciones más naturales, algo especialmente útil al moverse por centros urbanos complejos como Madrid, Barcelona o París.
La tecnología de Inteligencia Visual que Apple ya emplea en algunos iPhone serviría de base para este comportamiento, pero adaptada a un dispositivo diseñado para estar siempre viendo el entorno. La experiencia no se limitaría a reconocer alimentos o textos; también podría crear recordatorios contextuales, como avisar al usuario de que coja un producto cuando mire la estantería correcta en el supermercado.
En ese planteamiento, las gafas funcionarían como una especie de compañero de IA asociado al iPhone, que interpreta la escena en tiempo real y responde a preguntas de forma natural. La interacción sería principalmente por voz, aunque el sistema podría apoyarse en gestos sutiles o en la propia posición de la cabeza para entender la intención del usuario.
Relación con Apple Intelligence y futuro lanzamiento

Todo este planteamiento depende de manera directa de la evolución de Apple Intelligence y de la nueva versión de Siri que la compañía está desarrollando. La intención de Apple es que el asistente deje de ser un simple sistema de comandos de voz y pase a comportarse como un chatbot contextual, capaz de entender peticiones complejas y apoyarse en el entorno visual para actuar.
Diversos informes apuntan a que Apple se está apoyando en modelos desarrollados junto a Google, basados en Gemini, para cubrir las tareas de lenguaje más avanzadas, mientras continúa entrenando sus propios modelos. Esa combinación permitiría a Siri interpretar mejor preguntas abiertas, ofrecer explicaciones más completas y, sobre todo, vincular lo que ve con lo que el usuario solicita.
En cuanto al calendario, las previsiones más repetidas hablan de inicio de producción a partir de diciembre de cara a un lanzamiento público en 2027, aunque algunas fuentes sitúan un posible retraso hasta 2028 si el desarrollo se complica. En cualquier caso, se trata de un proyecto de largo recorrido, con la compañía probando distintos estilos de montura y estudiando versiones futuras con pantalla integrada que llegarían más adelante.
Apple se enfrenta aquí a un doble reto: llegar a tiempo al mercado de las gafas inteligentes, donde Meta ya ha ganado visibilidad con sus modelos en colaboración con Ray-Ban, pero sin precipitarse con un producto incómodo o poco maduro. La experiencia del Vision Pro, con un precio elevado y un nicho de uso muy concreto, parece haber servido de lección para un enfoque más prudente.
En Europa, donde la regulación sobre privacidad y tratamiento de datos es especialmente estricta, la compañía tendrá además que dejar muy claro cuándo las cámaras están activas, qué información se guarda y cómo se gestiona. Tanto la Unión Europea como las agencias nacionales de protección de datos observarán con lupa cualquier wearable que incluya cámaras siempre atentas al entorno.
Un ecosistema alrededor de las gafas: colgante con IA y AirPods con cámara
Aunque el foco está puesto en las gafas, los planes filtrados hablan de un trío de dispositivos que comparten la misma filosofía: sacar partido a la IA a través de cámaras y micrófonos que aportan contexto, siempre conectados al iPhone. Junto a las gafas llegarían un colgante con IA y unos AirPods con cámaras o sensores infrarrojos.
El colgante —descrito a menudo como un pin del tamaño aproximado de un AirTag— se podría llevar sujeto a la ropa o colgado del cuello. Incorporaría una cámara y un micrófono siempre disponibles, pensados para capturar el entorno y permitir hablar con Siri sin tener que sacar el móvil. Internamente, algunos empleados lo describen como los “ojos y oídos” del iPhone.
Este accesorio no pretende sustituir al teléfono, sino complementarlo como una extensión ligera centrada en la IA. El procesamiento pesado seguiría haciendo uso del iPhone, mientras que el colgante aportaría la entrada visual y sonora. Aún se debate si incluirá altavoz o dependerá exclusivamente de los auriculares, y su lanzamiento es más incierto que el de las gafas, aunque se manejan ventanas que van desde 2026 hasta 2027.
En paralelo, Apple también prepara AirPods con cámaras de baja resolución o sensores infrarrojos, cuyo propósito no sería grabar vídeo de forma convencional, sino interpretar el entorno: detectar gestos, reconocer la escena para ajustar el audio o sumar otra fuente de información a la IA de Siri. Las imágenes no se guardarían como fotos, sino que se analizarían al vuelo para tomar decisiones.
En conjunto, estos tres dispositivos dibujan un ecosistema en el que la inteligencia artificial se reparte entre gafas, colgante y auriculares, todos ellos vinculados al iPhone. El usuario podría interactuar con Siri desde distintos puntos del cuerpo —cara, pecho, oídos— y la IA dispondría de múltiples ojos y oídos digitales para entender mejor lo que está pasando a su alrededor.
Si los plazos y los proyectos se mantienen, los próximos años podrían traer una oleada de wearables con IA centrados en el contexto visual, con las gafas inteligentes de Apple como pieza central. La compañía buscaría así una nueva vía de crecimiento más allá del iPhone, apoyándose en su ecosistema, en una Siri profundamente renovada y en un diseño que no parezca un prototipo, sino algo que pueda usarse con naturalidad en el día a día en España y en el resto de Europa, donde la combinación de privacidad, comodidad y utilidad real decidirá si estas gafas se quedan en curiosidad o se convierten en un dispositivo tan habitual como los auriculares inalámbricos.
