El nuevo Siri aspira a controlar todo el iPhone con la voz

  • Apple prueba un Siri capaz de ejecutar acciones complejas por voz en apps propias y de terceros.
  • Integración profunda mediante Apple/App Intents y funciones de Apple Intelligence para entender lenguaje natural.
  • Despliegue gradual y limitado al principio, con restricciones en banca y salud por seguridad.
  • Calendario previsto para mediados de 2026, con una primera oleada en versiones intermedias de iOS.

Siri control por voz en iPhone

Apple acelera la renovación de Siri con una propuesta que va más allá de responder preguntas: el asistente está siendo preparado para orquestar el iPhone entero con la voz, dentro y fuera de las apps. El objetivo es que la interacción sea natural y que las tareas se resuelvan como lo haría un usuario, sin toques ni menús intermedios.

Fuentes habituales de la compañía, como el periodista Mark Gurman, señalan que las pruebas internas ya están en marcha y que el lanzamiento no será de golpe, sino por fases. Tras un primer cambio de look mostrado en la WWDC —la onda luminosa rodeando la pantalla en lugar del icono clásico—, llega el turno de la funcionalidad: control total por voz con respaldo de Apple Intelligence.

Qué cambia con la nueva Siri

La ambición pasa por convertir la voz en el mando universal del iPhone: pedirle a Siri que busque una foto concreta, la mejore y la comparta; que escriba y publique un comentario en redes; o que cruce datos de Mensajes, Calendario y Mapas para montar una cita con indicaciones y recordatorios.

Para lograrlo, Apple está impulsando una integración profunda con Apple/App Intents, el marco que permite a las apps exponer acciones de forma segura y comprensible. Combinado con modelos de lenguaje, Siri debería interpretar instrucciones largas y desordenadas, y traducirlas en pasos precisos dentro de cada aplicación.

La compañía quiere que no sea necesario “saber dónde tocar”: el usuario describe lo que quiere y el asistente ejecuta. Esto supone un avance respecto al Siri actual, que a menudo se quedaba en abrir apps o resolver consultas aisladas.

Además del motor que entiende al usuario, Apple reforzará el contexto en el dispositivo para obtener información relevante cuando sea necesario, como tickets en Fotos, mensajes con horarios de vuelos o direcciones guardadas, siempre bajo control de permisos.

Control por voz dentro de las aplicaciones

La meta es que las acciones sean tan fiables como si las hiciera una persona. Siri no solo iniciará una app: navegará por vistas, elegirá elementos y confirmará procesos. Esto incluye editar multimedia, interactuar con publicaciones, realizar compras o completar inicios de sesión.

Ese control granular exige que cada app declare sus capacidades y que el asistente aprenda a encadenarlas sin romper flujos. El enfoque modular reduce errores y permite que el sistema crezca a medida que los desarrolladores amplían compatibilidades.

  • Fotos: localizar, retocar y compartir imágenes específicas.
  • Redes sociales: redactar, comentar y publicar contenido.
  • Compras: añadir a la cesta, comparar y finalizar pedidos.
  • Servicios: solicitar un viaje, seguir rutas o gestionar reservas.

Todo ello llegará acompañado de confirmaciones y resúmenes por voz cuando la acción lo requiera, para evitar pasos irreflexivos o confusiones en solicitudes complejas.

Siri
Artículo relacionado:
La nueva Siri avanza: pruebas reales, App Intents y hoja de ruta

Pruebas y apps compatibles en la primera fase

Según las pruebas referidas por Gurman, Apple experimenta con sus propias apps y con un grupo de terceros para validar la tecnología. Entre los socios evaluados figuran Uber, AllTrails, Threads, Temu, Amazon, YouTube, Facebook y WhatsApp, además de varios juegos.

La elección responde a casos de uso cotidianos y variados (transporte, compras, social, ocio), con el fin de perfeccionar el reconocimiento de intenciones, la desambiguación de órdenes y la ejecución fiable en diferentes escenarios.

Internamente existe cautela: no todas las apps estarán listas a la vez. Apple busca alcanzar un umbral mínimo de compatibilidad para comenzar, sin comprometer la calidad en el proceso.

Privacidad, seguridad y límites en categorías sensibles

El control por voz no es inocuo: un error en banca o salud es mucho más crítico que uno al consultar el tiempo. Por ello, Apple contempla limitar o incluso excluir temporalmente funciones en categorías sensibles, priorizando siempre la seguridad y el cumplimiento normativo.

Se espera un sistema de permisos más explícitos y reversibles, con confirmaciones adicionales para transacciones, datos médicos o accesos de alto riesgo. El principio será “capacidad progresiva”: primero tareas acotadas y, cuando la precisión gane confianza, ampliar el alcance.

En paralelo, Apple mantiene su enfoque de procesamiento en el dispositivo siempre que sea posible, apoyándose en Apple Intelligence para mantener los datos personales bajo mayor control y minimizar el envío de información a la nube.

Calendario y despliegue: por qué será gradual

Tras anunciar una Siri más contextual y retrasarla, la hoja de ruta apunta a una implementación por fases durante 2026. La ventana más repetida entre filtraciones es la primavera, con una primera versión en una actualización intermedia de iOS.

Este enfoque escalonado permitirá recoger métricas, mejorar modelos y sumar compatibilidades sin detener el ritmo de entrega. Es previsible que al inicio coexistirá la interfaz renovada y un conjunto limitado de acciones por voz, ampliándose progresivamente con cada actualización.

Apple ya probó públicamente el nuevo aspecto de Siri —la animación que rodea la pantalla—, pero la evaluación más importante será con el control en apps, donde se decidirá si el asistente cumple con las expectativas.

Impacto en el ecosistema y lo que viene después

Un Siri capaz de ejecutar acciones encadenadas será fundamental para futuros dispositivos domésticos de la compañía, como pantallas inteligentes o proyectos robóticos en desarrollo, donde la voz será el principal método de interacción.

La mejora busca también reducir la fricción en el uso diario del iPhone y iPad: menos navegación manual, resultados más rápidos y un asistente que entienda matices y contextos sin necesidad de atajos explícitos.

Si la implementación se desarrolla como se espera, la voz pasará de ser un complemento a un elemento central en la interacción con el iPhone, con desarrolladores ampliando las acciones posibles y usuarios confiando en que lo que solicitan se realiza exactamente como lo piden.