Si te apetece tener tu propio “ChatGPT” funcionando directamente en tu Mac sin depender de la nube, LM Studio es ahora mismo una de las opciones más completas y fáciles de usar. En lugar de enviar tus datos a servidores externos, los modelos de IA se ejecutan en tu propio equipo, con un control total sobre la privacidad, el consumo de recursos y el tipo de modelo que quieres utilizar.
En esta guía vamos a ver cómo instalar, configurar y exprimir LM Studio en un Mac, qué requisitos necesitas, qué modelos son más interesantes según tu hardware y cómo aprovechar funciones avanzadas como el modo Developer o el RAG para trabajar con tus propios documentos. La idea es que termines el artículo con tu primer modelo local corriendo en tu Mac y listo para ayudarte a programar, escribir, resumir textos o simplemente trastear con IA.
Qué es LM Studio y por qué merece la pena usarlo en un Mac
LM Studio es una aplicación de escritorio gratuita pensada para descargar y ejecutar modelos LLM (Large Language Models) en local. Funciona como un chat de IA al estilo de ChatGPT, pero todo el procesamiento se hace en tu ordenador, sin necesidad de cuenta, API ni conexión permanente a Internet.
La interfaz es muy visual y sencilla de manejar: eliges un modelo de la sección de descubrimiento, lo descargas, lo cargas en la sección de chats y empiezas a conversar. Todo se basa en modelos en formato GGUF y, en Mac, también MLX optimizado para Metal, por lo que aprovecha muy bien los chips Apple Silicon (M1, M2, M3 y M4).
Los modelos que se ejecutan en LM Studio permiten generar texto coherente y creativo, resumir documentos, traducir, extraer ideas o analizar información. También puedes conectar LM Studio como servidor compatible con la API de OpenAI para usar tus modelos locales desde otras aplicaciones, lo que lo convierte en una “central de IA” completamente privada en tu Mac.
Frente a alternativas como Ollama, LM Studio destaca por ofrecer más controles de configuración por modelo, permitir elegir entre múltiples variantes (diferentes tamaños y cuantizaciones) y una experiencia algo más amigable para quienes no quieren pelearse con la línea de comandos.
Ventajas e inconvenientes de usar modelos de IA en local
Antes de ponernos manos a la obra, conviene tener claro qué ganas y qué pierdes al mover la IA a tu Mac en lugar de usar siempre servicios en la nube.
Ventajas principales
La primera ventaja es la privacidad absoluta: todo lo que escribes y los documentos que subes se quedan en tu máquina. Esto es especialmente interesante si manejas contratos, informes internos, documentación técnica sensible o datos personales que no quieres subir a servicios externos.
Otra gran ventaja es la autonomía. Una vez descargados los modelos, puedes usarlos incluso sin conexión a Internet; perfecto para trabajar en movilidad, en viajes o en redes con restricciones. No dependes de que el servidor de turno tenga buena salud ni de cambios repentinos en las políticas de uso.
También ahorras en costes recurrentes. Tener uno o varios modelos instalados en LM Studio te permite evitar suscripciones mensuales o límites de tokens, siempre que el rendimiento que obtengas te sea suficiente para el día a día. Para escribir, programar, traducir o generar resúmenes, un buen modelo de 7-8B en tu Mac suele ir más que sobrado.
Por último, usar IA en local es una forma estupenda de aprender cómo funcionan realmente los modelos LLM. Puedes trastear con parámetros, cambiar modelos, ajustar el contexto o probar RAG, lo que ayuda a entender mejor dónde están los límites y cómo sacarles más partido en tus proyectos.
Inconvenientes a tener en cuenta
El principal límite está en el hardware de tu Mac. El rendimiento y la fluidez dependen directamente de la RAM disponible, el tipo de chip y el tamaño del modelo que cargues. Modelos demasiado grandes pueden ir lentos o directamente no cargarse.

Además, un modelo local no puede consultar información actualizada en Internet por sí mismo. Todo su conocimiento está acotado a lo que se entrenó originalmente y a los documentos que tú le proporciones vía RAG, así que no esperes datos en tiempo real como precios, noticias del día o resultados deportivos recientes.
Por último, los modelos más pesados consumen bastante almacenamiento. Es fácil que, entre varios modelos de 7-20B, ocupes de 10 a 30 GB de SSD o incluso más, así que conviene tener algo de margen de disco si piensas coleccionar varias alternativas; además, considera deshabilitar las copias locales de Time Machine si necesitas liberar espacio.
Requisitos de LM Studio en Mac y otros sistemas
Aunque esta guía está centrada en macOS, viene bien entender los requisitos de LM Studio en cada sistema para saber hasta dónde puedes llegar si también usas Windows o Linux.
Requisitos en macOS
Para usar LM Studio en un Mac de forma cómoda, necesitas un equipo con procesador Apple Silicon: M1, M2, M3 o M4. Los Mac con Intel no son recomendados para LM Studio actual; si sigues con Intel y quieres IA local, lo más sensato es optar por alternativas como Msty, que están más pensadas para ese hardware.
En cuanto al sistema operativo, LM Studio requiere macOS 13.4 o superior. Si vas con una versión anterior de macOS, el primer paso es actualizar, siempre que tu Mac sea compatible, para evitar problemas de compatibilidad.
Respecto a memoria y almacenamiento, la recomendación razonable son 16 GB de RAM para un funcionamiento estable con modelos medianos (7-8B) y reservar entre 10 y 30 GB de SSD para modelos y cachés. Cuantos más modelos quieras probar, más espacio vas a necesitar, porque cada modelo puede ocupar desde unos 2 GB hasta más de 20 GB.
No necesitas una GPU dedicada: los chips Apple Silicon ya integran CPU, GPU y aceleradores de IA optimizados, y LM Studio aprovecha esa arquitectura mediante ficheros MLX cuando están disponibles.
Requisitos en Windows
Si además de tu Mac tienes un PC, te interesará saber que LM Studio en Windows pide una CPU de 64 bits con soporte AVX2. Esto lo cumplen la mayoría de procesadores modernos de Intel y AMD, pero siempre conviene verificarlo en las especificaciones oficiales.
Para que todo vaya fluido, se recomiendan 16 GB de RAM para modelos de 7-8B. Con solo 8 GB puedes arrancar modelos más pequeños (3-4B) con contextos cortos, pero notarás límites enseguida si intentas hacer chats muy largos o resúmenes de documentos muy extensos.
La GPU no es obligatoria, aunque una gráfica decente ayuda a acelerar los modelos más pesados. En almacenamiento debes calcular que cada modelo abrirá un buen mordisco al disco: un mínimo de 20 GB libres es razonable si quieres disponer de varios modelos instalados.
Requisitos en Linux
En Linux, LM Studio se distribuye normalmente en formato AppImage para x64, con soporte en distros como Ubuntu 20.04 o superiores. Si tu CPU no tiene AVX2, la experiencia puede verse muy limitada en rendimiento y compatibilidad con ciertos modelos.
En memoria y almacenamiento, el criterio es el mismo que en Windows: 16 GB de RAM para modelos medios y unos 20 GB de SSD si quieres albergar varios modelos. En algunas distribuciones tendrás que marcar el AppImage como ejecutable y permitir su integración en el escritorio para que funcione con normalidad.
Instalar LM Studio en tu Mac paso a paso
Una vez claros los requisitos, vamos al lío con el proceso de instalación en macOS, que es bastante directo y no tiene mucha ciencia.
Descarga de LM Studio
Lo primero es acceder a la web oficial de la herramienta, donde encontrarás un selector de descarga para macOS, Windows y Linux. En tu caso, haz clic en la opción de Mac y descarga el instalador correspondiente a tu arquitectura: normalmente verás claramente indicado que es para Apple Silicon.
Cuando el archivo se haya descargado, solo tienes que arrastrar la app de LM Studio a la carpeta Aplicaciones, como cualquier otra aplicación de macOS. No hay asistentes complejos ni configuraciones raras en esta fase.
Primer arranque y permisos en macOS
En el primer inicio, es posible que macOS te muestre un aviso porque la app no procede de la App Store. Nada raro: es el comportamiento estándar de Gatekeeper con software descargado de la web.
Para permitir su ejecución, ve a Preferencias del sistema > Seguridad y privacidad > General y pulsa en el botón “Abrir igualmente” junto al mensaje relativo a LM Studio. A partir de ese momento, podrás abrir la aplicación con normalidad desde Launchpad o la carpeta de Aplicaciones.
Activar modo avanzado y preparar la interfaz
Al abrir LM Studio, verás una interfaz bastante limpia. Es recomendable activar el modo “PowerUser” o avanzado, que suele encontrarse en la parte inferior izquierda de la ventana. Esto desbloquea botones adicionales en la columna lateral con funciones como Descubrir, Mis modelos o la sección de Desarrollador.
La estructura principal se organiza en cuatro iconos en la barra vertical izquierda, cada uno con un color y función concreta: la sección de chats, el área Developer para la API local, el listado de modelos instalados y la zona de descubrimiento. Enseguida los veremos con más detalle.
Estructura de LM Studio: secciones clave
Para moverte con soltura por la aplicación es importante entender qué hace cada sección de la columna lateral y en qué orden se usan cuando quieres empezar a chatear con un modelo.
En la parte izquierda encontrarás normalmente estos iconos:
- Icono amarillo de mensaje (Chats): es la sección donde abres y gestionas tus conversaciones. Aquí eliges el modelo que quieres usar, escribes los prompts y ves las respuestas, igual que harías en cualquier chat de IA online.
- Ventana verde (Desarrollador): activa un servidor local compatible con la API de OpenAI. Desde aquí puedes revisar el endpoint y usar tus modelos de LM Studio con otras apps que esperen una API tipo OpenAI, ideal para integraciones y automatizaciones.
- Carpeta roja (Mis modelos): muestra un inventario de todos los modelos descargados en tu máquina. Desde aquí puedes ver tamaños, versiones, abrir la configuración avanzada o lanzar un modelo concreto.
- Lupa morada (Descubrir): es la puerta de entrada al catálogo de modelos abiertos disponibles para descargar. Puedes buscar por nombre, filtrar por popularidad o ver cuáles se han actualizado recientemente.
El flujo de trabajo típico en Mac es sencillo: primero vas a “Descubrir” para encontrar y descargar un modelo, luego pasas por “Mis modelos” o directamente por “Chats” para cargarlo y empezar a usarlo.
Elegir y descargar tu primer modelo en Mac
Una vez dentro de la pestaña Descubrir, verás un listado bastante largo de modelos de IA abiertos listos para usar con LM Studio: desde familias como Qwen, LLaMA, Gemma, Mistral o Phi hasta modelos específicos centrados en razonamiento o programación.
Modelos recomendados para empezar
En la parte superior de la lista y mediante el buscador puedes localizar modelos especialmente optimizados para uso local y muy populares entre los usuarios:
- OpenAI gpt-oss 20B: modelo abierto de los creadores de ChatGPT, con licencia Apache 2.0. Está orientado a instrucciones y razonamiento configurable, pensado como alternativa local “oficial” a ChatGPT en formatos GGUF/MLX.
- DeepSeek R1 Distill Qwen 7B: una destilación del modelo de razonamiento de DeepSeek sobre Qwen 7B. Ofrece un buen equilibrio entre calidad y requisitos, admite cuantizaciones Q4-Q6 y contextos largos. Es una opción muy recomendable para equipos con 16 GB de RAM.
- Gemma 3n E4B: variante de Gemma 3, la alternativa abierta de Google a Gemini. Es multimodal y está optimizada para dispositivos cotidianos, con builds GGUF listas para LM Studio y contextos de hasta unos 32.000 tokens.
- Qwen 3B y 4B Thinking: estas versiones “Thinking” están diseñadas para ordenadores con menos recursos. Ofrecen contextos de unos 8.000 tokens y están pensadas para dar respuestas elaboradas con bajo consumo de memoria, muy útiles si tu equipo va justo de RAM.
- Magistral Small 2509: modelo ligero basado en Mistral AI, con unos 2,5B de parámetros. Está optimizado para comprensión de instrucciones y razonamiento general en máquinas con recursos limitados; ideal para redacción, resúmenes y asistencia técnica.
- Mistral 7B: el modelo emblemático de Mistral AI, muy competente en español y tareas lógicas y matemáticas. Sus variantes en GGUF suelen ofrecer contextos de hasta 32.000 tokens, perfectos para chats extensos y análisis de textos largos.
- Phi 4: modelo compacto de Microsoft, con alrededor de 1,7B de parámetros. Está orientado a respuestas concisas y precisas, consume poca memoria y es ideal para diálogos rápidos, ayuda técnica o generación de textos cortos.
También encontrarás modelos como google/gemma-3n-e4b, mistralai/mistral-small-3.2 o deepseek/deepseek-r1-0528-qwen3-8b, todos ellos bien soportados en LM Studio y adecuados para distintos usos y niveles de hardware.
Proceso de descarga desde la sección “Descubrir”
Para descargar un modelo, basta con buscar su nombre en la barra de búsqueda de la parte superior, o localizarlo en las listas filtradas por popularidad o fecha de actualización. Al hacer clic sobre el modelo, se abrirá una ficha con información detallada en la parte derecha.
En esa ficha verás, entre otros datos, el formato (GGUF, MLX), el tamaño del archivo en GB, la longitud de contexto soportada y la descripción de su enfoque (instrucciones, razonamiento, código, etc.). En la esquina inferior derecha tendrás un botón “Download” acompañado del peso del modelo.
Al pulsar en “Download”, LM Studio abrirá su gestor de descargas interno donde puedes comprobar el progreso y la velocidad. Solo tienes que esperar a que llegue al 100 %; el tiempo dependerá de tu conexión y del tamaño del modelo, que puede ir de pocos GB hasta más de 12 GB.
Un consejo importante en Mac es no escoger modelos más grandes que tu RAM. Intenta que el tamaño del modelo en disco no supere demasiado la memoria física disponible para evitar cuellos de botella, pero tampoco te vayas a modelos minúsculos si necesitas calidad en tareas complejas.
Configurar y cargar un modelo en LM Studio
Una vez que el modelo se haya descargado con éxito, tienes dos caminos: entrar en la sección Mis modelos para administrarlo o ir directamente a Chats para cargarlo y empezar a conversar. Vamos a seguir el proceso típico desde la zona de chats.
Seleccionar el modelo para chatear
En la sección de Chats, verás en la parte central un panel donde puedes elegir el modelo que quieres cargar. Si es la primera vez que usas LM Studio, puede aparecer un modelo muy pequeño instalado por defecto (como Llama 3.2 1B) para pruebas iniciales.
Al pulsar sobre el desplegable de selección de modelo, deberías ver el modelo que acabas de descargar, por ejemplo DeepSeek R1 0528 Qwen 3 8B o la variante de Mistral que hayas elegido. Haz clic en su nombre y se abrirá un panel previo de configuración.
Ajustes clave antes de lanzar el modelo
En ese panel de configuración encontrarás varios parámetros importantes. El primero es “Model file”, donde puedes escoger el archivo específico del modelo si tienes varias cuantizaciones o versiones descargadas. Si solo hay una, normalmente basta con dejarlo tal cual.
Después verás un control para la longitud del contexto. Este ajuste define cuántos tokens (unidades de texto) puede “recordar” el modelo dentro de una conversación o tarea. Cuanto más contexto le des, más memoria usa y más lento puede ir, pero también será capaz de mantener hilos de conversación largos o analizar documentos extensos sin olvidar partes importantes.
Subir el contexto hacia la derecha incrementa el límite, lo que se traduce en mayor consumo de RAM/VRAM y más cómputo por token. Si tu Mac va justo, te conviene empezar con valores moderados (por ejemplo, 8-16K tokens) y subir solo si ves que el rendimiento aguanta bien.
Otro parámetro clave es la carga en GPU (en Windows y Linux aparece más explícita, en Mac se gestiona a través de MLX y Metal). La idea es distribuir parte de las capas del modelo en la GPU para acelerar la generación, especialmente en modelos de 7-20B parámetros. Si te pasas y superas la memoria disponible, puedes notar caídas drásticas de rendimiento, así que lo prudente es subir poco a poco hasta encontrar el punto óptimo.
En el caso concreto de DeepSeek R1 0528 Qwen 3 8B, un punto de partida razonable es usar contextos de 8-16K tokens, aunque el modelo admita hasta 128K. Más allá de 16-32K, en hardware doméstico estándar la velocidad suele empezar a resentirse. Para la carga en GPU, puedes arrancar con valores medios y ajustar según veas la tasa de tokens por segundo.
Lanzar el modelo y empezar a chatear
Cuando hayas ajustado estos parámetros, pulsa en “Cargar modelo”. LM Studio se tomará unos segundos para inicializar el modelo en memoria, tras lo cual verás la ventana de chat lista para escribir.
Desde aquí puedes lanzar cualquier prompt: desde un “Hola, ¿quién eres?” hasta peticiones complejas como “Escribe un resumen de este texto”, “Ayúdame a revisar este correo” o “Explícame la Segunda Guerra Mundial centrándote en Japón y el bombardeo de Hiroshima”. El modelo responderá con un texto generado al vuelo, y LM Studio te mostrará además estadísticas como tokens generados y velocidad de generación.
Adjuntar archivos y usar RAG en LM Studio

Los modelos de lenguaje tienen una limitación importante: solo conocen lo que se les enseñó durante el entrenamiento. No pueden, por sí solos, acceder a tus documentos privados ni aprender cosas nuevas en tiempo real sobre tu empresa o tus proyectos.
Aquí entra en juego el enfoque Retrieval Augmented Generation (RAG). LM Studio te permite subir documentos desde tu Mac para que el modelo los tenga en cuenta al responder tus preguntas, sin necesidad de reentrenarlo desde cero. Es como si le dieras una mini biblioteca temporal de referencia.
En la práctica, puedes subir hasta 5 archivos a la vez, con un máximo combinado de 30 MB. Los formatos admitidos incluyen PDF, DOCX, TXT y CSV, lo que cubre la mayoría de documentos de trabajo habituales: informes, contratos, tablas de datos, apuntes, etc.
Una vez añadidos los documentos a la conversación, es clave ser lo más específico posible en tus preguntas. En vez de preguntar “¿qué dice el contrato?”, es mucho más útil algo como “Según la cláusula de penalización del contrato que he subido, ¿qué pasa si me retraso más de 30 días en el pago?”. Cuantos más detalles des, mejor podrá el modelo recuperar el fragmento relevante.
El modelo analizará tanto tu consulta como el contenido de los archivos adjuntos y generará una respuesta apoyándose en esa información. Puedes experimentar cargando distintos conjuntos de documentos y probando diferentes estrategias de prompt para ver cómo varía la precisión y la utilidad de las respuestas.
Modo Developer y opciones avanzadas de generación
LM Studio no se queda en la simple ventana de chat. Con el modo Developer puedes ajustar parámetros de generación muy finos y exponer un servidor local compatible con la API de OpenAI, para que otras aplicaciones traten tu modelo local como si fuera un endpoint remoto.
Controles de creatividad y diversidad de respuesta
Uno de los parámetros más importantes es la temperatura. Con valores bajos, el modelo se comporta de forma más determinista y conservadora, repitiendo las respuestas más probables, algo ideal para resúmenes, explicaciones técnicas o tareas donde quieres coherencia por encima de creatividad.
Si subes la temperatura, las respuestas se vuelven más variadas y creativas, pero también aumenta el riesgo de incoherencias o pequeñas “fantasías” del modelo. Para escribir historias, lluvia de ideas o textos más imaginativos, una temperatura más alta puede venirte muy bien.
Además de la temperatura, LM Studio te deja tocar Top-K y Top-P. Top-K limita cuántas opciones de tokens se consideran en cada paso, lo que tiende a dar respuestas algo más rígidas y controladas. Top-P, en cambio, trabaja sobre la probabilidad acumulada y permite un equilibrio más suave entre precisión y diversidad.
System Prompt: definir el carácter de tu IA local
Otro ajuste clave es el System Prompt, un texto que sirve como instrucción base permanente para el modelo. Aquí puedes indicarle, por ejemplo: “Eres un experto en derecho laboral español”, “Contesta siempre en un tono cercano y claro” o “Sé conciso y añade ejemplos prácticos en cada respuesta”.
Este system prompt se aplica antes de tus preguntas, por lo que marca el estilo y el rol del modelo durante toda la sesión. Es especialmente útil para tareas repetitivas, como resumir textos, contestar correos profesionales o generar informes con un formato homogéneo.
Ten en cuenta que todos estos parámetros —temperatura, Top-K, Top-P, contexto, etc.— tienen impacto directo en el rendimiento y en la calidad percibida. Ajustarlos con cabeza te permite encontrar ese punto dulce entre velocidad, coherencia y creatividad que mejor se adapte a tu forma de trabajar.
Beneficios prácticos de tener un LLM local en tu Mac

Más allá de la parte técnica, lo interesante es qué puedes hacer en el día a día con LM Studio en tu Mac. Los casos de uso son muchos, y se multiplican si añades RAG y el modo Developer.
En primer lugar, está todo lo relacionado con la gestión de documentos personales y profesionales. Imagina tener un montón de PDFs de facturas, contratos o informes históricos: con LM Studio puedes cargarlos y hacer preguntas tipo “búscame las cláusulas de confidencialidad más importantes” o “localiza los correos relacionados con este proyecto en 2022”.
Si estudias o investigas, un modelo local es perfecto para resumir artículos largos, generar esquemas de estudio y extraer ideas clave sin necesidad de subir nada a la nube. Puedes cargar tus apuntes y pedirle listas de conceptos, comparativas entre teorías o explicaciones más sencillas.
En el ámbito profesional, LM Studio puede servir como asistente para redactar correos formales, preparar borradores de informes o hacer traducciones rápidas. Ajustando el System Prompt, puedes decirle que actúe como “asistente profesional orientado a la acción”, que escriba claro, al grano, y con el tono adecuado al tipo de cliente.
Y si te gusta programar, puedes conectar el servidor local de API a tu editor o a scripts propios para autocompletar código, generar funciones, revisar errores o documentar módulos. Todo con tus modelos locales, sin exponer tu repositorio a terceros.
Al final, LM Studio en un Mac con Apple Silicon te da una combinación muy potente de privacidad, control, rendimiento y flexibilidad. Puedes ir cambiando de modelo según la tarea, ajustar parámetros a tu gusto y trabajar tanto en local puro como integrando tu IA con otras herramientas de tu flujo de trabajo habitual, todo sin depender de suscripciones ni de la conexión permanente a la nube.


