
Cuando hablamos de la calidad real de una conexión, fija o móvil, casi todo el mundo se fija solo en los megas de velocidad. Pero hay un factor menos visible que marca la diferencia entre una conexión que va “fina” y otra que desespera: la latencia en conexiones móviles y de Internet. Es lo que explica por qué a veces tienes buena velocidad contratada, pero las videollamadas se cortan, los juegos online van con retraso o una página tarda en reaccionar.
La buena noticia es que este parámetro no es ningún misterio. Entendiendo bien qué es, qué valores son razonables, cómo se mide y qué la empeora o la mejora, puedes ganar muchos enteros en tu experiencia online. Además, con la llegada del 5G y la fibra óptica, la latencia ha pegado un salto brutal respecto a las redes antiguas, abriendo la puerta a coches conectados, cirugía remota, fábricas inteligentes y un Internet de las cosas realmente masivo.
Qué es exactamente la latencia en Internet y en redes móviles
De forma sencilla, la latencia es el tiempo de retraso que sufren los datos al viajar entre tu dispositivo y otro punto de la red. Es el intervalo que pasa desde que tu móvil, consola u ordenador envía un pequeño paquete de información hasta que el servidor lo recibe, lo procesa y devuelve una respuesta.
Ese retardo se mide en milisegundos (ms). Una latencia de 20 ms significa que ese viaje de ida y vuelta de los datos tarda 0,02 segundos. Puede parecer poco, pero cuando hablamos de videojuegos competitivos, coche autónomo o una operación a distancia, unos pocos milisegundos arriba o abajo marcan mucha diferencia.
En el día a día, la latencia se percibe como el famoso “lag” o ping alto: disparas en un juego y el personaje responde tarde, hablas en una videollamada y la otra persona escucha con retardo, o pulsas un botón en una app y parece que la interfaz se lo piensa antes de reaccionar.
Conviene distinguirla de otros términos que suelen mezclarse: velocidad, ancho de banda y latencia no son lo mismo. El ancho de banda es la capacidad total de la “autopista” (por ejemplo, 600 Mbps de fibra); la velocidad es cuántos datos consigues mover por segundo; y la latencia es cuánto tarda en empezar ese movimiento y en completarse el viaje ida-vuelta del paquete mínimo de datos.
Cómo ha evolucionado la latencia: de 2G a 5G y fibra
Aunque ahora nos quejemos si tenemos 50 ms, lo cierto es que la latencia ha caído de forma brutal desde los primeros móviles y las conexiones antiguas. Si miramos la evolución por generaciones móviles, se ve clarísimo el salto en pocas décadas.
Con las redes 2G (GSM/GPRS) de finales de los 90, la latencia típica estaba entre 500 milisegundos y 1 segundo. Es decir, medio segundo o más de retraso; suficiente como para que las aplicaciones en tiempo real fueran prácticamente inviables más allá de la llamada de voz tradicional.
Con 3G (UMTS), el panorama mejoró bastante y los retardos se movían alrededor de 100 a 300 ms. Aún así, para juegos online o control remoto en tiempo real seguía siendo un valor alto.
El 4G (LTE) dio otro empujón importante, bajando la latencia a rangos de 10 a 100 ms dependiendo de la red y la situación. Con esas cifras muchas aplicaciones interactivas empezaron a ser razonablemente usables: videollamadas decentes, juegos móviles más fluidos, etc.
El gran salto llega con 5G, donde el objetivo de diseño es poder bajar hasta alrededor de 1 ms en escenarios óptimos. Esta llamada “revolución del milisegundo” no es solo un lema de marketing: implica que la red es capaz de reaccionar prácticamente en tiempo real, algo crítico para sectores como la automoción, la salud o la industria avanzada.
En paralelo, en redes fijas, el salto de ADSL sobre par de cobre a fibra óptica también ha recortado muchísimo la latencia. Allí donde un ADSL podía irse a cientos de milisegundos según la distancia y el estado de la línea, una conexión de fibra moderna puede ofrecer latencias del orden de 4 ms o incluso menos hacia servidores cercanos.
De qué depende la latencia: factores clave
La latencia no es un único retraso, sino la suma de todos los pequeños retardos que introduce cada tramo y cada equipo de la red en el camino de ida y vuelta de la comunicación. Hay varios factores que influyen de forma clara.
El primero es la distancia física. Aunque la luz en la fibra y las ondas de radio vayan muy rápido, no son instantáneas. Si estás en Canarias y accedes a un servidor alojado en la Península o más lejos, solo el trayecto de varios miles de kilómetros ya implica decenas de milisegundos. Incluso viajando a la velocidad de la luz, recorrer ida y vuelta unos 4.400 km añade en torno a 14 ms como mínimo. En entornos remotos, la conectividad satelital móvil también puede influir.
También pesa el tipo de conexión. La fibra óptica tiene menos latencia que el ADSL o que muchas redes inalámbricas antiguas; y en el mundo móvil, 5G mejora mucho a 4G, que a su vez era claramente superior al 3G y 2G. A nivel local, una conexión por cable Ethernet suele dar un ping más bajo y estable que el WiFi, donde hay interferencias, obstáculos y más variabilidad.
Otro factor importante son los equipos intermedios por los que pasan los paquetes: antenas, routers de los operadores, switches, firewalls, balanceadores, etc. Cada “nodo” que toca el tráfico añade un pequeño tiempo de procesado, de encaminamiento o de cola, que se va sumando.
En casa, la saturación de la red doméstica es un clásico: si varios dispositivos están a la vez descargando, viendo vídeo en 4K, con copias de seguridad en la nube o jugando, el router y la conexión comparten recursos y la latencia sube. Lo mismo ocurre si el router es antiguo o está mal configurado, o si el WiFi sufre interferencias de otras redes vecinas, microondas, paredes gruesas, etc.
Cómo se mide la latencia: ping, traceroute y valores de referencia
Para medir la latencia se utilizan herramientas muy sencillas como ping. Básicamente, tu dispositivo envía un pequeño paquete de datos a una dirección (por ejemplo, google.com) y mide cuánto tarda en recibir la respuesta. El resultado te da el tiempo de ida y vuelta en milisegundos.
Otra utilidad muy habitual es traceroute (o tracert en Windows), que no solo mide el tiempo, sino que además te muestra todos los saltos intermedios por los que pasa la información. Así puedes identificar en qué tramo concreto empiezan los grandes retrasos o si hay nodos que responden especialmente lentos.
Muchos tests de velocidad online, incluidos los de los propios operadores, muestran junto a las velocidades de descarga y subida un campo de latencia o ping. Es una forma sencilla de obtener una referencia de cómo está tu conexión en ese momento sin complicarte con la consola del sistema.
Como guía orientativa, se suelen manejar estos rangos de calidad de latencia para un usuario doméstico:
- 0-20 ms: excelente, ideal para juegos online competitivos y usos muy exigentes.
- 20-50 ms: muy buena, suficiente para prácticamente cualquier aplicación.
- 50-100 ms: aceptable, aunque el retraso puede notarse en algunos casos.
- Más de 100 ms: latencia alta, se perciben retardos claros en juegos, videollamadas y tareas en tiempo real.
En conexiones móviles, estos valores pueden subir algo, pero con 5G bien desplegado es factible moverse en márgenes muy parecidos a la fibra, sobre todo cuando el tráfico se resuelve cerca del usuario en la propia red del operador.
Diferencia entre latencia, ancho de banda y velocidad de conexión
A la hora de contratar Internet, la publicidad se centra casi siempre en los megas o gigas de velocidad, pero una línea con mucho ancho de banda puede “sentirse lenta” si la latencia es alta. Por eso interesa tener claro qué aporta cada parámetro.
El ancho de banda (que solemos llamar velocidad contratada) es la capacidad máxima de datos que la conexión puede transportar por segundo. Por ejemplo, 300 Mbps de fibra significan que, en teoría, puedes trasladar hasta 300 megabits por segundo entre tu casa y la red del operador.
La latencia, en cambio, es el tiempo de reacción. Es la diferencia entre que una página web empiece a cargar casi al instante o que tarde un par de segundos en “arrancar” aunque luego descargue todo muy rápido gracias al ancho de banda alto.
Un ejemplo típico: viendo una película en streaming, lo que más importa es el ancho de banda sostenido, porque una vez que el reproductor ha empezado a llenar el búfer, puede ir descargando datos por adelantado. En cambio, en una videollamada interactiva, en un juego online o en un robot quirúrgico, cada acción necesita una respuesta inmediata, y ahí la latencia manda.
En resumen, para una buena experiencia global necesitas ancho de banda suficiente y una latencia baja y estable. Una conexión perfecta en megas pero con mucho ping se notará torpe; una conexión con buen ping pero muy poco ancho de banda cargará las cosas con rapidez inicial pero se quedará corta en descargas o streaming de alta calidad.
Latencia y 5G: la era del milisegundo
En el mundo móvil, el 5G no solo supone más velocidad: sobre todo introduce una arquitectura de red pensada para reducir la latencia al mínimo. Tanto que se habla habitualmente de “la revolución del milisegundo”.
Para lograrlo, las redes 5G han simplificado el camino que recorren los datos. Donde antes un paquete tenía que atravesar varias entidades lógicas en la red del operador, ahora se han reducido los nodos intermedios y se han adoptado técnicas avanzadas en la parte radio (RAN) y en el núcleo de red.
En la parte radio se emplean nuevas formas de onda, estructuras de trama más eficientes y el uso de bandas de frecuencia más altas (incluidas las llamadas bandas milimétricas), que permiten asignar recursos con más agilidad. Además, se ha mejorado el tiempo entre que se asignan recursos a un móvil y este puede transmitir, reduciendo los huecos “muertos”.
En el núcleo, las operadoras utilizan redes definidas por software (SDN), virtualización de funciones de red (NFV) y, sobre todo, computación en el borde (Mobile Edge Computing): despliegan servidores muy cerca del usuario, incluso en la propia estación base, de forma que muchas aplicaciones se ejecutan prácticamente a pie de antena.
Esto significa que ciertos servicios no tienen que irse a un centro de datos lejano: la propia antena puede alojar, por ejemplo, el servidor de un juego, una plataforma de vídeo o el sistema que coordina vehículos conectados en una zona. Cuanto más cerca está el servidor del usuario, menos milisegundos se pierden en el camino.
Latencia ultrabaja e hiperconectividad: IoT, ciudades y hogares
La combinación de alta velocidad y latencia muy baja en 5G sienta las bases de una hiperconectividad real, apoyada en el Internet de las cosas (IoT) y el estándar Matter. Hablamos de cientos de millones de dispositivos conectados simultáneamente: sensores, electrodomésticos, cámaras, vehículos, wearables, etc.
En el hogar, esta conectividad permitirá que electrodomésticos, domótica y dispositivos personales se coordinen en tiempo casi real. Desde termostatos que reaccionan al instante a cambios de ocupación hasta sistemas de seguridad que envían vídeo en directo con muy poco retardo, o asistentes que combinan inteligencia artificial en la nube con reacción inmediata.
En la industria y el entorno empresarial, la baja latencia se traduce en modelos productivos mucho más automatizados y precisos. La robotización, los servicios en la nube, la analítica de datos y la inteligencia artificial pueden sincronizarse con las líneas de producción con retrasos mínimos, dando lugar a la llamada Industria 4.0.
Las ciudades también se benefician: sensores de tráfico, alumbrado, calidad del aire o gestión de residuos pueden enviar datos constantes a plataformas en la nube que reaccionan casi al instante. Este tipo de infraestructuras inteligentes ayudan a mejorar la eficiencia y la sostenibilidad, reduciendo emisiones de carbono y optimizando servicios públicos como el transporte o la energía.
Incluso sectores tradicionalmente intensivos en recursos, como la energía o el turismo, pueden transformarse. La monitorización remota en tiempo real, los servicios personalizados al viajero o las redes eléctricas inteligentes se apoyan en esa capacidad de comunicación rápida y fiable que ofrece una latencia reducida combinada con un gran ancho de banda.
Baja latencia en sectores críticos: salud, industria y transporte
Hay ámbitos en los que la baja latencia pasa de ser un plus a ser literalmente crítica para la seguridad o la vida de las personas. Salud, industria avanzada y transporte son tres casos claros.
En el sector sanitario, la combinación de 5G y baja latencia permite, por ejemplo, cirugía remota asistida por robots. Un cirujano puede manejar un robot quirúrgico a kilómetros de distancia, siempre que el tiempo de respuesta de la red se mantenga en el orden del milisegundo. Cualquier retardo apreciable en los movimientos se traduce en riesgo para el paciente.
También surgen aplicaciones como la rehabilitación en grupo mediante realidad virtual para pacientes con esclerosis múltiple, o experiencias de musicoterapia inmersiva con cascos VR conectados por 5G. En estas terapias, la sincronización entre imagen, sonido y movimientos es clave, y una latencia baja mejora tanto la eficacia como la sensación de presencia.
En la industria, la latencia ultrabaja facilita la implantación de fábricas inteligentes con control en tiempo real. Robots, cintas, sistemas de visión artificial y plataformas de IA se coordinan milisegundo a milisegundo, reduciendo errores y mejorando la seguridad. La combinación de 5G privado, fibra y computación en la nube está impulsando ese salto hacia la Industria 4.0 en sectores como automoción, logística o energía.
En el transporte, el coche conectado y el vehículo autónomo necesitan reaccionar sobre la marcha a lo que sucede alrededor: peatones, ciclistas, obstáculos, señales de tráfico… Aquí, unos milisegundos de más pueden ser la diferencia entre frenar a tiempo o no. Tener vehículos, semáforos y elementos de la carretera conectados actúa como una red de sensores que comparte información en tiempo casi real.
Además, ya se experimenta con control remoto de vehículos y drones. Un operador puede conducir un coche desde un centro de control o pilotar un dron profesional para inspecciones. Si la imagen que recibe y las órdenes que envía sufren un retraso elevado, el riesgo de accidente se dispara. Por eso, para vehículos y drones conectados, la latencia es uno de los parámetros más vigilados.
Por qué notas la latencia en juegos online, videollamadas y trabajo remoto
En la experiencia diaria, donde más se hace evidente la latencia es en todo lo que implique interacción en tiempo real con otros usuarios o con un servidor. Tres ejemplos muy claros son los juegos online, las videollamadas y el acceso remoto a equipos o escritorios.
En los videojuegos multijugador, el famoso ping marca la diferencia entre competir en igualdad de condiciones o hacer el ridículo. Un jugador con 15 ms de latencia ve y reacciona antes que otro con 150 ms. Puede disparar, regatear o esquivar con más precisión porque lo que ve en pantalla se ajusta casi al milímetro a lo que el servidor considera “real”.
De hecho, muchos servidores de juegos bloquean o penalizan conexiones con ping demasiado alto. Y es habitual que los gamers revisen la latencia hacia diferentes servidores, elijan los más cercanos geográficamente y optimicen su red doméstica (cable en vez de WiFi, cerrar descargas, etc.) para rascar unos milisegundos menos.
En videollamadas, una latencia elevada provoca conversaciones desincronizadas: hablas y la otra persona tarda en escucharte, se pisan las voces, la imagen y el audio se salen de tiempo o se producen silencios raros. Es ese efecto tan incómodo de tener que esperar un segundo antes de contestar, que hace que la conversación fluya mucho peor.
En trabajo remoto, sobre todo con escritorios virtuales, control remoto de máquinas o plataformas de trading financiero, una baja latencia es fundamental. Mover el ratón y que el clic tarde en registrarse en el servidor hace el uso diario tedioso. En trading, unos milisegundos pueden suponer diferencias de precio importantes.
Para tareas más asíncronas, como navegar por webs o ver vídeo en streaming, el impacto de la latencia es menor, aunque no desaparece: influye en el tiempo que tardan en empezar a cargar las páginas o en cómo se comporta la reproducción cuando hay muchos cambios de calidad o paradas y reanudaciones frecuentes.
Cómo comprobar la latencia de tu conexión en casa
Si sospechas que tu conexión “va rara” aunque el test de velocidad marque buenos megas, lo suyo es medir la latencia y ver si está dentro de lo normal. Tienes varias maneras rápidas de hacerlo.
La más sencilla es usar cualquier test de velocidad online. Muchos muestran un valor de ping junto a la descarga y la subida. Si ves cifras por debajo de 50 ms hacia servidores de tu propio país, estás bien encaminado. Si se dispara por encima de 100 ms de forma constante, algo pasa.
Si te manejas con la consola, puedes abrir el símbolo del sistema o terminal y ejecutar un ping a un dominio conocido, por ejemplo:
ping google.com
El resultado mostrará varios envíos y te indicará el tiempo mínimo, máximo y medio en milisegundos. Repetir la prueba con y sin WiFi, o conectando el dispositivo por cable directamente al router, te ayuda a saber si el problema está en la red doméstica o fuera.
Si la media baja de forma clara al usar cable Ethernet, el cuello de botella está seguramente en el WiFi, su cobertura o interferencias. Si incluso por cable la latencia se mantiene alta, es más probable que el problema esté en la red del operador, en la ruta hacia ese servidor o en saturaciones externas.
Cómo reducir la latencia: red doméstica, conexión y contenido
No todos los factores de la latencia dependen del usuario, pero sí hay varias medidas prácticas para recortar el ping y ganar fluidez en tu día a día. Algunas actúan en tu red local, otras en la forma de servir contenidos desde las webs y aplicaciones.
Lo más efectivo en casa es abandonar, cuando se pueda, el WiFi y conectar por cable Ethernet los dispositivos más sensibles a la latencia: PC de juego, consola, ordenador de trabajo remoto, etc. El cable elimina interferencias, mejora la estabilidad y evita que la señal se degrade al atravesar paredes o techos.
Si tienes que usar WiFi, conviene minimizar la saturación: usa la banda de 5 GHz en lugar de 2,4 GHz cuando el router y el dispositivo lo permitan, cambia a canales menos ocupados, acerca el equipo al router o instala sistemas de red mallada (mesh) o amplificadores bien ubicados si tu casa es grande o con muchas paredes.
Otro punto básico es cuidar el estado y la configuración del router: reiniciarlo de vez en cuando cuando notes comportamientos extraños, actualizar su firmware cuando el fabricante u operador lo recomiende y, si se ha quedado muy viejo, plantearse cambiarlo por un modelo más moderno que gestione mejor múltiples conexiones simultáneas.
Durante partidas online, videollamadas importantes o sesiones de trabajo remoto, ayuda mucho cerrar descargas pesadas y limitar el streaming en 4K en otros dispositivos. Al reducir la carga global de la red, el router puede atender con más rapidez los paquetes que realmente necesitas con latencia baja.
Si todo esto está controlado y sigues viendo ping alto incluso por cable, el siguiente paso es hablar con tu operador o probar trucos para mejorar la cobertura de móvil. A veces hay rutas poco eficientes hacia determinados servidores, saturaciones en nodos intermedios o problemas en tu línea que ellos pueden diagnosticar y solucionar.
Optimización de latencia desde el lado de las webs y servicios
No solo los usuarios pueden hacer algo: también los desarrolladores de webs y apps tienen muchas herramientas para reducir la latencia percibida por quienes se conectan, incluso cuando estos no tienen la mejor conexión del mundo.
Una pieza clave son las redes de distribución de contenido (CDN). En lugar de servir todas las peticiones desde un único servidor central, el contenido estático (imágenes, scripts, hojas de estilo, etc.) se copia en múltiples servidores repartidos por el mundo. Así, el usuario se conecta al nodo más cercano y los paquetes no tienen que cruzar medio planeta.
Además del uso de CDN, se puede optimizar qué recursos se cargan primero. Por ejemplo, retrasar la ejecución de ciertos JavaScript pesados hasta después de mostrar el contenido principal, comprimir y reducir el tamaño de las imágenes, o minimizar el código HTML, CSS y JS para que ocupe menos. Cada kilobyte que ahorras son menos datos que tienen que viajar y procesarse.
También existe la estrategia de cargar solo lo que se necesita en cada momento, lo que se conoce como carga perezosa (lazy load). El contenido que el usuario ve nada más entrar (lo que queda por encima del pliegue de la pantalla) se prioriza, y el resto se va descargando a medida que hace scroll o lo necesita. De cara al usuario, da la sensación de que la página reacciona mucho más rápido.
En definitiva, las buenas prácticas de desarrollo web y de aplicaciones no solo mejoran el consumo de datos, sino que rebajan la latencia efectiva y la sensación de “todo tarda mucho en cargar”, incluso cuando la latencia física de la red no es perfecta.
En el plano del usuario avanzado o de empresas, otra forma de mitigar la latencia es elegir conexiones con mejor tecnología de acceso (fibra en vez de ADSL o satélite), contratar más ancho de banda cuando hay muchos equipos conectados y cuidar que todo el equipamiento de red (switches, puntos de acceso, firewalls) esté actualizado y dimensionado para el tráfico real que se maneja.
Entender cómo funciona la latencia, cómo ha ido bajando desde las viejas redes 2G y ADSL hasta el 5G y la fibra, y qué herramientas tenemos tanto en casa como en la nube permite sacar mucho más partido a las conexiones actuales. Con unos pocos ajustes y eligiendo bien la tecnología, es posible disfrutar de una red que responde casi al instante en juegos, videollamadas, aplicaciones críticas y en el creciente universo de dispositivos conectados.