Apple ultima el salto a unas gafas que parecen convencionales, pero con funciones conectadas y asistidas por inteligencia artificial. Según varias fuentes, el plan pasa por un anuncio en 2026 y una llegada al mercado más adelante, con una primera generación que prescinde de la pantalla de realidad aumentada.
La jugada no es casual: el objetivo sería introducir un producto cómodo y usable en el día a día, mientras el ecosistema se adapta. En lugar de cargarlo todo desde el principio, Apple pondría el foco en acciones del día a día como responder llamadas, hacer fotos o recibir avisos sin sacar el iPhone, en un contexto en el que Meta marca el paso con sus gafas de consumo.
Calendario y estrategia de lanzamiento
Bloomberg y otros medios coinciden en que Apple trabaja ya en sus primeras “smart glasses”, con una hoja de ruta que contempla presentación en 2026 y estreno comercial en 2027. El patrón recuerda a Vision Pro: se anticipa el producto para dar tiempo a desarrolladores y socios a preparar experiencias y servicios.
El primer modelo no incluiría display AR. En su lugar, apostaría por funciones prácticas apoyadas en IA y en el iPhone, un primer paso para crear hábito de uso antes de un salto a una versión más ambiciosa con pantalla integrada.
Diseño y materiales
Se espera una gama de monturas con varios materiales y estilos: desde aluminio a plásticos de alta calidad, con distintos colores y tamaños. Igual que ocurrió con Apple Watch, la personalización sería un ingrediente clave para que las gafas encajen como accesorio de moda además de dispositivo tecnológico.
Las versiones contemplarían lentes pancake, de sol y estándar, además de opción graduada mediante el sistema ya visto junto a Zeiss en Vision Pro. Por privacidad, habría un LED visible que indique la grabación activa. Para cuadrar peso y volumen con batería, cámaras, micrófonos y altavoces, Apple estaría probando fabricación con impresión 3D en componentes de las monturas.
Hardware y chip: eficiencia por encima de la pantalla
Varios informes apuntan a que Apple habría asegurado una parte relevante de la producción en 2 nm de TSMC prevista para 2026. Con ello, la compañía podría montar un SoC muy contenido en tamaño y consumo, con menos calor y más autonomía para un formato tan compacto.
En la práctica, se buscaría un equilibrio tipo “rendimiento de iPhone con gasto de reloj”: un chip derivado de la arquitectura del Apple Watch para tareas locales y el resto delegado al iPhone, evitando sobrecargar las varillas y aumentar el peso y volumen.
Funciones previstas
El foco inicial estaría en cámara, audio e inteligencia artificial, con controles por voz y gestos sencillos en la montura. Se habla de foto y vídeo (incluido espacial) con un toque en la varilla o con Siri, y de reproducción directa de música, podcasts y llamadas desde los altavoces integrados.
- Navegación por voz: indicaciones de Siri sin mirar la pantalla del teléfono.
- IA visual: reconocimiento de objetos, lugares o texto mediante Apple Intelligence conectada al iPhone.
- Traducción: soporte para traducciones conversacionales en tiempo casi real.
- Mensajería y notificaciones: dictado, respuestas rápidas y avisos básicos.
- Ecosistema: integración con Buscar y servicios como Apple Music (pendiente de confirmación).
Cómo funcionarán: dependencia del iPhone
Al no llevar pantalla ni un procesador de alto consumo, el sistema se apoyará en el iPhone para el trabajo pesado (IA avanzada, multimedia o conectividad). El chip interno gestionará lo esencial, manteniendo la experiencia fluida.
Este enfoque tiene ventajas claras: gafas más ligeras, autonomías mayores y coste contenido frente a una solución completamente autónoma. Es una estrategia similar a la de los primeros Apple Watch, que evolucionaron hacia más independencia con el tiempo.
Siri y Apple Intelligence
Siri será el eje del control. Apple está rehaciendo su asistente con modelos de lenguaje para que en 2026 pueda ofrecer conversaciones naturales, entender el contexto y encadenar acciones complejas, en línea con lo que demandan unas gafas controladas mayoritariamente por la voz.
Las cámaras alimentarían funciones de comprensión visual, traducción en vivo, recordatorios contextuales y guía paso a paso. Sin una evolución de Siri y Apple Intelligence a la altura, el producto no lograría la usabilidad esperada en uso cotidiano.
Precio y posicionamiento
Para competir en serio con las gafas de Meta, las cifras que se barajan sitúan el precio entre 400 y 600 euros. La idea sería acercarse más al rango de unos AirPods de gama alta que a un visor profesional, con un planteamiento claramente de consumo.
Competencia y prioridades internas en Apple
El empuje de Meta en el sector habría acelerado los planes. Fuentes internas señalan un cambio de prioridades en Cupertino: parte del equipo que trabajaba en un visor más ligero y asequible que Vision Pro habría sido reasignado a estas gafas.
El primer modelo, identificado como N50, se conectaría al iPhone y no tendría pantalla propia, con posible anuncio en 2026. Un segundo desarrollo sí integraría display para competir de tú a tú con las gafas con pantalla ya anunciadas por la competencia, proyecto que también se habría acelerado.
Fechas que se barajan
El escenario más repetido por los analistas habla de presentación a finales de 2026 y comercialización durante 2027. Una ventana como la WWDC también encajaría si Apple quiere impulsar desde el principio el soporte de apps y servicios con una comunidad de desarrolladores implicada.
Si los planes avanzan según lo previsto, Apple irrumpirá primero con unas gafas ligeras y conectadas, sin pantalla AR, que priorizan la comodidad y la IA para usos cotidianos. La apuesta es clara: crear uso real desde el minuto uno y cimentar el terreno para una segunda generación con display que lleve la categoría a otro nivel.