La irrupción de la IA generativa en iPhone, iPad y Mac está cambiando por completo cómo escribimos, buscamos información y gestionamos nuestro día a día. Apple se ha sumado a esta revolución con Apple Intelligence, un conjunto de funciones que promete ser muy potente, pero que también abre dudas razonables sobre qué pasa con nuestros datos personales y, en entornos de trabajo, con la información corporativa sensible.
En este contexto, es clave entender qué medidas de seguridad existen ya en el ecosistema Apple, qué riesgos siguen encima de la mesa y qué controles adicionales podemos aplicar como usuarios particulares, como responsables de TI o como empresas que manejan datos confidenciales. Vamos a desgranar, con calma pero con detalle, todo lo que necesitas saber para usar IA generativa en dispositivos Apple con cabeza y sin sustos.
Qué es Apple Intelligence y cómo funciona a nivel de privacidad
Apple define Apple Intelligence como un sistema de funciones de IA generativa integrado en sus sistemas operativos, pensado para ayudarte en tareas diarias: reescribir correos y notas, resumir mensajes y notificaciones, crear recuerdos personalizados en Fotos, generar imágenes (Image Playground, Genmoji, varita gráfica) o incluso asistir a apps de terceros mediante modelos de lenguaje en el dispositivo.
Para ofrecer esta “inteligencia personal”, Apple Intelligence se apoya en la información que ya está en tu dispositivo: calendario, apps más usadas, contenido de mensajes, correos y otros datos locales. La clave aquí es que el sistema intenta identificar solo los datos estrictamente necesarios para completar cada tarea, sin que Apple tenga que guardarlos en sus servidores ni acceder a ellos de forma permanente.
Siempre que puede, Apple Intelligence ejecuta sus modelos de IA de forma totalmente local. Por ejemplo, la creación de resúmenes de correos electrónicos, mensajes y notificaciones se realiza con modelos integrados en el dispositivo, de manera que esos textos no abandonan tu iPhone, iPad o Mac.
Sin embargo, hay peticiones que requieren más potencia de cálculo de la que un dispositivo puede ofrecer. En esos casos, entra en juego la llamada computación privada en la nube (Private Cloud Compute): un sistema de procesamiento en servidores con chip de Apple diseñado para tareas complejas, pero manteniendo un nivel de privacidad muy exigente.
Cuando inicias una tarea, un modelo local analiza si puede resolverla por sí mismo. Si no es suficiente, el dispositivo envía a la computación privada en la nube solo los datos imprescindibles para resolver la petición. Apple indica que no almacena ni puede ver esos datos; se procesan para generar la respuesta, se devuelve el resultado al dispositivo mediante un canal seguro y se elimina la información de los servidores.
On-device AI y Private Cloud Compute: el doble escudo de Apple
Una de las piedras angulares de la estrategia de Apple es dividir el trabajo entre procesamiento en el dispositivo y computación privada en la nube, de forma que la mayor parte de la inteligencia viva “en tu bolsillo” y solo lo estrictamente necesario viaje a servidores de Apple.
Las nuevas funciones más avanzadas —como Writing Tools, Image Wand o Genmoji— solo están disponibles en dispositivos recientes con suficiente capacidad (por ejemplo, iPhone 16 o iPhone 15 Pro/Max y modelos equivalentes en iPad y Mac). El motivo es precisamente que Apple Intelligence intenta hacer el grueso del procesamiento localmente, aprovechando el hardware más moderno.
Para aquellas operaciones que no se pueden completar en el dispositivo, entra Private Cloud Compute (PCC). Apple ha diseñado PCC con una serie de objetivos de seguridad muy claros:
- Cálculo sin estado sobre los datos del usuario: los datos se usan solo para atender la petición concreta y no se mantiene rastro tras devolver la respuesta.
- Garantías aplicables y verificables: todos los componentes críticos del sistema deben respetar las garantías de privacidad y seguridad definidas.
- Sin acceso privilegiado en tiempo de ejecución: ni siquiera para resolución de incidencias se contempla saltarse las protecciones de privacidad.
- Imposibilidad de ataque dirigido: la arquitectura está pensada para dificultar que un atacante pueda centrar sus esfuerzos en un usuario concreto.
- Transparencia verificable: investigadores externos de seguridad pueden revisar el software que se ejecuta en estos servidores para confirmar que se cumple lo prometido.
Esta combinación de modelo pequeño en el dispositivo y modelo más potente en la nube privada permite a Apple ofrecer funciones avanzadas de IA sin replicar el modelo clásico de “sube todo al servidor y ya veremos”. Aun así, como veremos más adelante, hay riesgos y dudas que organizaciones y usuarios avanzados siguen planteando.

Seguridad de los servidores con chip de Apple y controles técnicos
La computación privada en la nube se ejecuta sobre servidores con chip de Apple diseñados con énfasis en la seguridad. No son máquinas genéricas en un centro de datos cualquiera, sino una infraestructura alineada con el mismo modelo de protección que encontramos en iPhone o iPad.
En estos servidores, el componente Secure Enclave se encarga de proteger las claves de cifrado críticas del mismo modo que lo hace en los dispositivos de los usuarios. Esto significa que incluso si alguien tuviera acceso físico a los servidores, extraer las claves o los datos cifrados se vuelve extremadamente difícil.
Además, el sistema de arranque seguro garantiza que solo se ejecute un sistema operativo firmado y verificado por Apple, tal como ocurre en iOS. Si el software del servidor hubiese sido modificado o comprometido, el arranque seguro evitaría su carga.
El monitor de ejecución de confianza se asegura de que únicamente se ejecute código firmado y verificado, bloqueando intentos de introducir binarios maliciosos. A esto se suma la atestación: el dispositivo del usuario puede comprobar de manera segura la identidad y configuración del clúster de computación privada en la nube antes de enviarle datos.
Como capa adicional de confianza, Apple permite que expertos independientes en seguridad y privacidad inspeccionen el código que corre en estos servidores. Esta apertura limitada, pero real, responde a la necesidad de demostrar que la promesa de no almacenar ni explotar los datos enviados a PCC no es solo una declaración comercial.
Control de datos, transparencia y opción de auditoría desde el dispositivo
Desde el lado del usuario, Apple ha habilitado varias funciones para entender mejor qué se está haciendo con sus datos y, en parte, controlar ese uso. Una de las más interesantes es el llamado Informe de Apple Intelligence.
En iOS, iPadOS y visionOS puedes activar este registro yendo a Ajustes > Privacidad y seguridad > Informe de Apple Intelligence y eligiendo la duración deseada. En Mac, el camino es Ajustes del Sistema > Privacidad y seguridad > Informe de Apple Intelligence. Tras usar las funciones de IA, puedes exportar un archivo con las peticiones que tu dispositivo ha enviado a la computación privada en la nube.
Ese registro te muestra qué solicitudes se han procesado en PCC, incluyendo las originadas en watchOS, y, si has activado la extensión de ChatGPT, también las peticiones enviadas a ChatGPT a través de Siri, las herramientas de escritura o la inteligencia visual. Es una forma directa de ver cuántas veces y para qué tareas tus datos han salido del dispositivo.
Cuando el dispositivo envía una petición a la nube privada, Apple asegura que solo recopila información estrictamente necesaria, como el tamaño aproximado de la petición y la respuesta, las funciones implicadas y el tiempo de procesamiento. Estos datos no incluirían el contenido de lo que has pedido ni el resultado que se ha devuelto, y además no se vinculan a tu cuenta de Apple ni a otros datos tuyos procedentes de otros servicios.
Si has aceptado compartir datos de análisis del dispositivo, Apple puede aplicar técnicas de preservación de la privacidad para obtener tendencias agregadas, incluyendo contenido procesado por Apple Intelligence, con el fin de mejorar el servicio. La gracia del enfoque es que buscan evitar la recopilación de información identificable de usuarios individuales, aunque siempre puedes desactivar esta opción en Ajustes > Privacidad y seguridad > Análisis y mejoras (o el equivalente en macOS).
Gestión y restricción de funciones de IA en iPhone y otros dispositivos

En cuanto a controles prácticos, el sistema de Tiempo de uso de Apple permite limitar el acceso a algunas funciones de generación de imágenes como Image Playground, Genmoji o la varita gráfica. Esto es especialmente útil si compartes el dispositivo con menores o si, como empresa, quieres acotar ciertos usos.
Para restringir estas funciones, el camino es sencillo:
- Abre la app Ajustes en el iPhone.
- Entra en Tiempo de uso.
- Toca Restricciones de contenido y privacidad y activa la opción.
- Ve a Apple Intelligence y Siri > Creación de imágenes y elige entre Permitir o No permitir.
Por otro lado, Apple Intelligence incluye funciones como los resúmenes automáticos de notificaciones o el análisis de correos y mensajes. Aunque estén pensadas para ayudarte a priorizar información, se han detectado casos en los que los resúmenes pueden distorsionar el mensaje original, generando titulares o extractos que no se ajustan del todo a la realidad.
Además, Apple Intelligence se activa por defecto en ciertos modelos —como iPhone 16 y iPhone 15 Pro/Max— y ocupa alrededor de 7 GB de almacenamiento. Eso puede impactar tanto en el espacio disponible como, potencialmente, en el rendimiento, sin que el usuario sea plenamente consciente si no revisa las opciones de configuración.
Si prefieres ir con pies de plomo mientras la función siga en fase beta, una medida prudente es revisar y desactivar Apple Intelligence de forma manual desde Ajustes > Privacidad y seguridad, comprobando qué módulos están activos y qué permisos tienen sobre tus apps y datos.
Riesgos para empresas y datos corporativos con IA generativa en Apple
La llegada de Apple Intelligence a dispositivos de empresa plantea preocupaciones específicas para responsables de seguridad y privacidad. La idea de que una IA tenga visibilidad sobre correos, documentos, apps internas o notificaciones corporativas no es algo que se deba tomar a la ligera.
Entre las preocupaciones más frecuentes que comentan organizaciones y usuarios avanzados encontramos:
- Claridad sobre qué datos puede ver Apple Intelligence en el dispositivo y qué parte de esa información puede llegar, aunque sea de forma efímera, a la nube privada.
- Visibilidad de qué se procesa localmente y qué viaja a la nube, para poder trazar políticas internas sobre tipos de datos permitidos.
- Control sobre el uso de datos corporativos para entrenamiento de modelos, incluso si Apple afirma que no utiliza contenidos individuales para ese fin.
- Garantías reales sobre la privacidad del modelo “Private Cloud Compute” y su resiliencia frente a ataques dirigidos o accesos internos indebidos.
- Información sobre agregación, anonimización, cifrado y tiempos de retención de cualquier dato generado o metadato asociado.
- Posibilidad de desactivar u optar por no usar funciones de IA a nivel de organización si el modelo de privacidad no encaja con las políticas propias.
Estas inquietudes no se limitan a Apple Intelligence: afectan a cualquier herramienta de IA generativa presente en teléfonos corporativos o BYOD. El riesgo de fuga de información, por ejemplo a través de textos pegados en herramientas de redacción automática, es real y debe gestionarse con políticas claras y controles técnicos.
El rol de MDM, MAM y soluciones como BlackBerry en flotas Apple
Las empresas que gestionan flotas de iPhone de forma centralizada suelen apoyarse en soluciones de Mobile Device Management (MDM) o Mobile Application Management (MAM). Fabricantes como BlackBerry ya han empezado a incorporar controles específicos para Apple Intelligence en sus políticas de seguridad.
En despliegues con dispositivos totalmente gestionados por MDM, BlackBerry ha añadido controles de política para funciones como Writing Tools, permitiendo a los administradores limitar o desactivar ciertas capacidades de IA de forma remota, alineándolas con los requisitos de cumplimiento y confidencialidad de cada organización.
En entornos de solo gestión de apps (MAM/BYOD), donde el dispositivo es del empleado pero las aplicaciones corporativas están aisladas, se han introducido controles a nivel de aplicación. Esto permite, por ejemplo, bloquear el uso de funciones de Apple Intelligence dentro de las apps de productividad seguras de BlackBerry, mientras se mantiene la libertad del usuario en sus apps personales.
Este enfoque híbrido da lugar a situaciones como:
- Restringir la experiencia de Writing Tools en todo el dispositivo para evitar que cualquier contenido corporativo se filtre a funciones de IA.
- Permitir Writing Tools solo fuera del entorno seguro, de forma que los documentos y correos protegidos no puedan enviarse a ningún modelo, ni local ni en la nube, sin pasar por los filtros de seguridad de la empresa.
Combinando estas políticas con la propia arquitectura de Apple Intelligence, las empresas pueden equilibrar productividad y seguridad, adaptando los niveles de control a los distintos perfiles de usuarios o áreas de negocio.
Amenazas generales de la IA generativa en móviles y por qué importa la encriptación
Más allá de Apple, la IA generativa en móviles (ChatGPT, DALL·E, asistentes diversos) arrastra una serie de riesgos bien conocidos en materia de privacidad. Muchos modelos se entrenan con datos que los usuarios introducen sin tener claro qué se va a hacer con ellos ni durante cuánto tiempo se conservarán.
Una de las preocupaciones principales es la recopilación y uso de datos sin un consentimiento explícito y comprensible. Formularios ambiguos, políticas de privacidad densas y opciones de configuración escondidas pueden llevar a que el usuario aporte información muy sensible (documentos laborales, conversaciones privadas, material médico) sin valorar las consecuencias.
Otro riesgo importante son las vulnerabilidades técnicas en los sistemas que almacenan o procesan esos datos. Si las apps de IA generativa guardan historiales, prompts o resultados en servidores sin las debidas medidas de seguridad, un incidente de ciberseguridad puede exponer grandes volúmenes de información personal o corporativa.
También preocupa la falta de transparencia de algunas plataformas respecto a cómo se reutilizan los datos para entrenar modelos, si se comparten con terceros o si se comercializan perfiles derivados. La opacidad en políticas de uso y términos del servicio alimenta desconfianza y dificulta que los usuarios tomen decisiones informadas.

Para reducir esta superficie de ataque, cada vez cobra más relevancia la adopción de medidas de cifrado robustas: cifrado de extremo a extremo en comunicaciones, uso de TLS/SSL para el transporte de datos y almacenamiento cifrado en servidores y dispositivos. Sin estas capas, el resto de promesas de privacidad se quedan en papel mojado.
Applebot, entrenamiento de modelos y derecho a limitar el rastreo
Apple no solo obtiene datos de los dispositivos de los usuarios: también usa Applebot, su rastreador web, para recopilar información disponible públicamente en Internet con el fin de entrenar sus modelos de base que alimentan las funciones de IA generativa.
Los editores de sitios web pueden indicar en su archivo robots.txt que Applebot no rastree su contenido o que, aun rastreándolo para indexación, no se utilice para entrenar modelos de Apple. De este modo, quien publica contenido puede ejercer cierto control sobre el papel de su web en el entrenamiento de la IA.
Applebot no accede a contenidos protegidos por credenciales o muros de pago, y antes de usar datos rastreados para entrenar modelos, Apple aplica filtros para eliminar contenido vulgar o de baja calidad, e intenta excluir sitios que agregan grandes cantidades de datos personales.
Adicionalmente, se aplican filtros automáticos para eliminar información de identificación personal como números de seguridad social o tarjetas de crédito que puedan estar expuestos en la web pública. Apple afirma que no intenta identificar personas concretas ni crear perfiles individuales a partir de los datos recolectados.
Si una URL contiene tus datos personales (por ejemplo, un blog con tu nombre y detalles sensibles) puedes oponerte a que se use en el entrenamiento de modelos integrados en las funciones de IA generativa de Apple. Para ello, la compañía ofrece un formulario específico de consultas sobre privacidad de Apple Intelligence, en el que conviene incluir URLs concretas y datos precisos.
Buenas prácticas de diseño seguro con Foundation Models en apps Apple
Desde el punto de vista de desarrolladores, Apple ha introducido la estructura Foundation Models para integrar IA generativa en apps de iOS, iPadOS, macOS y visionOS. Esta estructura da acceso a un modelo de lenguaje grande, pero comprimido y optimizado para ejecutarse en el dispositivo, con alrededor de 3.000 millones de parámetros.
Ese tamaño implica limitaciones claras: el modelo no tiene tanto conocimiento del mundo como un modelo masivo en la nube (tipo ChatGPT), no está actualizado con eventos recientes y no es exacto como una enciclopedia. Es ideal para tareas como resumir, clasificar textos, mantener conversaciones sencillas, redactar o generar etiquetas, pero no para cálculos complejos o para dar información fáctica sin supervisión.
Apple insiste en que si se necesita precisión en datos reales, el desarrollador debe proporcionar la información verificada en el propio prompt y revisar a fondo las respuestas. Además, la estructura permite usar “generación guiada” para obligar al modelo a responder en formatos concretos (arrays, números, estructuras definidas) y así reducir errores y alucinaciones.
Otra pieza clave es la ingeniería de prompts. El modelo responde mejor cuando se le dan instrucciones claras, una única tarea por prompt y, como mucho, unos pocos ejemplos del resultado deseado. También se pueden controlar longitud y estilo del texto indicando “en tres frases”, “en pocas palabras” o pidiendo que adopte un determinado rol (“como si fueras un profesor paciente”, por ejemplo).
Apple ofrece además la funcionalidad Playground en Xcode para que los desarrolladores experimenten con prompts directamente, viendo al instante las respuestas del modelo y afinando las instrucciones antes de integrarlas en la interfaz de usuario de su app.
Capas de seguridad y controles integrados en Foundation Models

La seguridad en la IA generativa integrada en apps no se deja al azar. La estructura Foundation Models incorpora controles entrenados por Apple para bloquear contenidos dañinos tanto a la entrada como a la salida del modelo.
Las instrucciones, los prompts del desarrollador y las entradas de usuario se consideran entradas al modelo, y se someten a filtros que bloquean contenidos inapropiados. Del mismo modo, las salidas generadas también pasan por controles adicionales para evitar que, incluso si una entrada logra esquivar los filtros, la respuesta final sea dañina.
Cuando se produce un error de seguridad —por ejemplo, porque el modelo ha bloqueado una petición—, Apple recomienda que las apps gestionen estos fallos de manera clara y no intrusiva. Si la función de IA es proactiva y no depende directamente de una acción del usuario, puede ignorarse el error sin notificación; si el usuario ha iniciado la acción y está esperando, conviene mostrar un mensaje o alerta explicando que no se puede procesar la solicitud y ofrecer alternativas.
Dentro de este marco, los desarrolladores siguen siendo responsables de diseñar una experiencia segura y fiable. Apple sugiere pensar en la seguridad como una pila de capas, al estilo de un “queso suizo”: cada capa tiene agujeros, pero cuando se apilan varias, es menos probable que todos los agujeros se alineen y ocurra un problema serio.
En esta pila entrarían los controles integrados de Foundation Models, las instrucciones cuidadosamente redactadas, la forma de incluir entradas de usuario en los prompts (por ejemplo, combinando textos prediseñados con fragmentos del usuario) y mitigaciones específicas del caso de uso, como avisos de alergias en una app de recetas o filtros de temas sensibles en juegos de trivia.
Manejo de entradas de usuario, empatía y evaluación de la IA
Un punto delicado es el uso de entradas de usuario como prompts directos, típico de chatbots o apps de diario. Aquí el desarrollador no sabe qué va a escribir la persona: puede ser algo inocuo, pero también contenido hostil, autolesivo o manipulador que intente forzar respuestas dañinas.
Para mejorar la seguridad, Apple recomienda que las instrucciones al modelo incluyan guías de comportamiento explícitas; por ejemplo, responder a mensajes negativos con empatía y amabilidad, o evitar dar consejos médicos, financieros o legales. Estas instrucciones tienen prioridad sobre los prompts y ayudan a orientar las respuestas, aunque no son infalibles.
También se propone que las apps reduzcan riesgos mediante prompts predefinidos entre los que el usuario elige, en lugar de permitir texto completamente libre, o bien combinando instrucciones fijas con el texto que aporta la persona, de modo que se mantenga cierto control sobre el foco de la conversación.
Por último, Apple anima a los desarrolladores a invertir en evaluaciones y pruebas sistemáticas: crear conjuntos de datos de prompts que cubran casos habituales y potenciales problemas de seguridad, automatizar su ejecución en la app (mediante herramientas de línea de comandos o apps de prueba de interfaz), revisar manualmente las respuestas si el conjunto es pequeño o bien usar otros modelos para calificarlas si es grande.
Estas evaluaciones deberían incluir casos negativos y escenarios de error, para comprobar que la app se comporta de manera predecible ante bloqueos de seguridad o respuestas vacías. De esta forma, se puede seguir la pista a mejoras y regresiones a lo largo del tiempo a medida que se afinan prompts o Apple actualiza sus modelos.
Con todo este ecosistema —procesamiento en el dispositivo, computación privada en la nube, cifrado, controles de contenido, herramientas de transparencia, gestión centralizada para empresas y guías de diseño seguro— Apple intenta que la experiencia con IA generativa en sus dispositivos sea potente pero, sobre todo, fiable y respetuosa con la privacidad; la clave para aprovecharla sin sobresaltos está en conocer estas capas, activar los informes y ajustes oportunos y, cuando toque, desactivar o limitar funciones que no encajen con tu perfil de riesgo personal o corporativo.
