12 puntos por GN⁺ 2025-10-12 | 2 comentarios | Compartir por WhatsApp
  • En la banda de 5 GHz, la mejor experiencia se logra usando un ancho de canal estrecho de 20/40 MHz, pero los productos de consumo usan por defecto anchos de canal amplios de 80 MHz o más, lo que provoca interferencia y mayor latencia
  • Como los consumidores prefieren que sea rápido, los fabricantes y los ISP mantienen canales amplios por temor a caer en los benchmarks si lanzan sus equipos con canales estrechos
  • El simple hecho de hacer una prueba de velocidad de Wi‑Fi también consume el ancho de banda compartido de la red, reduciendo la capacidad de respuesta y haciendo que otros dispositivos sufran latencia y pérdida de paquetes
  • El próximo estándar de IEEE, Wi‑Fi 8 (802.11bn), apunta a mejorar la confiabilidad y la capacidad de respuesta más que la velocidad, pero no se espera que su estandarización termine antes de 2028
  • Incluso solo cambiando la configuración del hardware ya desplegado se pueden lograr mejoras importantes

La importancia de un ancho de canal estrecho

  • Las redes empresariales usan anchos de canal de 20 MHz a 40 MHz para cubrir áreas amplias y soportar muchas conexiones de dispositivos
    • Esto permite disponer de más canales y evitar la interferencia de canal compartido (co-channel interference)
  • En el Wi‑Fi residencial y de pequeños negocios, la situación no es muy distinta de la empresarial: el hogar promedio en EE. UU. tiene 21 dispositivos Wi‑Fi
    • Muchos hogares necesitan varios nodos mesh o puntos de acceso para lograr una cobertura efectiva
  • Sin embargo, los routers domésticos o equipos de los ISP suelen usar por defecto 80 MHz o más y ocupan dos tercios de toda la banda
    • Algunos equipos de 2.4 GHz solo permiten 40 MHz, así que el usuario ni siquiera puede ajustarlos a un ancho menor

El problema de la ‘obsesión por la velocidad’

  • La razón de estas configuraciones es que muchos consumidores perciben que calidad de Wi‑Fi = velocidad, y no toman en cuenta otros factores
    • Se enfocan solo en la velocidad por encima de indicadores más importantes para la experiencia de internet, como la capacidad de respuesta y la confiabilidad
  • Los fabricantes y los ISP son muy sensibles a las puntuaciones de pruebas de velocidad, por lo que mantienen por defecto los canales amplios
    • Con canales estrechos, la calidad percibida en el uso real mejora, pero las cifras de velocidad salen más bajas, lo que genera temor de un aumento en las devoluciones
  • Como resultado, se mantiene una dinámica obsesionada con el rendimiento máximo por encima de la capacidad de respuesta y la estabilidad

El efecto contraproducente de las pruebas de velocidad

  • El Wi‑Fi funciona con una estructura de canal aéreo compartido (airtime contention), por lo que solo un dispositivo puede transmitir a la vez
    • Por eso, cuando un dispositivo ejecuta una prueba de velocidad, aumentan la latencia y la pérdida de paquetes en los demás dispositivos
  • Los experimentos muestran que, si otro dispositivo en la misma red realiza una prueba de velocidad, aumentan la latencia, el jitter y la pérdida de paquetes
    • Cuando la misma prueba se hizo por conexión cableada (ethernet), ese efecto no apareció
  • En la mayoría de los equipos de consumo, las funciones para mitigar el buffer bloat están desactivadas, lo que empeora todavía más la situación
  • Las propias herramientas para medir velocidad o los sistemas automatizados de medición pueden ser una causa importante de deterioro en la calidad percibida por el consumidor

IEEE 802.11bn (Wi‑Fi 8): un nuevo enfoque centrado en capacidad de respuesta y confiabilidad

  • El 68% de los hogares en EE. UU. experimentó problemas de Wi‑Fi durante el último año
  • El estándar IEEE Wi‑Fi 8 (802.11bn) busca alejarse del enfoque tradicional centrado en la velocidad
    • y fijar como objetivos la confiabilidad, la baja latencia (percentil 95), la minimización de la pérdida de paquetes y la robustez en entornos con interferencia
    • Sin embargo, no se espera que el estándar quede definitivamente aprobado hasta 2028
  • La banda de 6 GHz usada por Wi‑Fi 6E y 7 ofrece canales más amplios, pero
    • la adopción de dispositivos sigue siendo baja y no resuelve el problema fundamental del canal compartido

Soluciones y propuestas

  • No hace falta esperar la adopción masiva real de Wi‑Fi 6E y 7 ni las promesas aún no concretadas de Wi‑Fi 8
    • Con solo cambiar la configuración del hardware ya desplegado se puede lograr un rendimiento mucho mejor
    • Basta con dejar de perseguir el máximo throughput y enfocarse en la capacidad de respuesta y la confiabilidad del Wi‑Fi
  • Las pruebas de velocidad son herramientas útiles, pero depender demasiado de ellas termina degradando la calidad
  • Lo que los consumidores realmente quieren es respuesta rápida y estabilidad, pero faltan herramientas y datos para medirlo
  • Los fabricantes y los ISP deberían introducir nuevas métricas que destaquen la experiencia continua de red (Responsiveness & Reliability)
  • Incluso con el hardware actual, simples cambios de configuración permiten construir un entorno Wi‑Fi más estable

2 comentarios

 
GN⁺ 2025-10-12
Opiniones en Hacker News
  • Al experimentar con un hub UniFi, quedó claro que lo ideal es ofrecer canales Wi‑Fi independientes a cada dispositivo; la interferencia es tan severa que, incluso en entornos donde el rendimiento cae si los canales no chocan, los resultados son mucho mejores. Además, la mejor forma de acelerar el entorno inalámbrico es simplemente usar menos Wi‑Fi siempre que sea posible, y conectar por Ethernet los dispositivos que no se mueven, como la TV, reduce de forma efectiva la congestión y la caída de velocidad del Wi‑Fi

    • Lo ideal es conectar por Ethernet todos los dispositivos salvo los smartphones o las laptops que no están fijas en el escritorio. En 2020, cuando aumentaron mucho las videoconferencias, tendí Ethernet directamente dentro de la casa y la usabilidad mejoró bastante

    • Los dispositivos IoT suelen usar chipsets Wi‑Fi lentos y estándares antiguos, así que una forma efectiva es agruparlos aparte en un SSID exclusivo de 2.4GHz. Así, los equipos viejos o lentos no arruinan la comodidad de 5GHz. Además, si se instalan más routers inalámbricos y se usa backhaul cableado, los dispositivos pueden conectarse eficientemente al AP más cercano y el Wi‑Fi se vuelve mucho más estable. Después de cablear y ajustar todos los equipos inmóviles de la casa, la calidad inalámbrica mejoró muchísimo

    • Los iPhone/iPad también pueden conectarse con adaptadores Ethernet, y al descargar archivos grandes el trabajo es mucho más rápido. Aun así, es una lástima que muchos electrodomésticos y equipos de consumo no admitan conexión cableada. En departamentos urbanos densos, lo inalámbrico realmente es una mala opción, y además está la molestia de que varios dispositivos muestran más equipos de redes cercanas de lo necesario o no permiten desactivar el Wi‑Fi de forma normal

    • Un cliente Wi‑Fi inactivo en la red y sin tráfico casi no afecta la calidad. El verdadero problema son cosas como las smart TV en uso o con mucho tráfico en segundo plano. En redes IoT, se bloquea Internet para la mayoría de los dispositivos para reducir ese tráfico de fondo. En general, simplemente ampliar la cobertura de los AP, usar backhaul cableado y cambiar a buen equipo (por ejemplo, Ubiquiti/UniFi) puede mejorar muchísimo la mayoría de los problemas de Wi‑Fi. Si usas Wi‑Fi mesh, se recomienda backhaul de 6GHz, aunque con algo de pérdida en cobertura por distancia

    • La instalación cableada es la solución más agresiva y potente. Pero si necesitas aprovechar mucho el Wi‑Fi, puedes optimizar usando varios AP con backhaul dedicado. Hay experiencia montando así una red con más de 60 dispositivos que mantienen roaming cómodo y buena velocidad. Se hizo con UniFi, pero el equipo PoE de Eero también rinde de forma similar

  • Una de las causas del mal estado del Wi‑Fi es la función WiFi Direct de impresoras como las de HP. Al escanear las señales cercanas, aparecen más de cinco impresoras vecinas transmitiendo con fuerza. En edificios grandes, los únicos canales realmente aprovechables son los de 6GHz compatibles con WiFi 6e

  • No queda claro qué parte del artículo conviene aplicar en la práctica. ¿Significa reducir el ancho de canal en casa? Para que realmente tenga sentido, parecería que harían falta bastantes WAP. Más que el ancho de canal, en departamentos parece más realista recomendar bajar la potencia TX. Pero no todo el mundo lo hará, y lo mejor es ajustarse al límite legal. Los equipos que necesitan alto rendimiento deberían ir cableados desde el principio. Si alguien piensa invertir tiempo en optimizar Wi‑Fi, wiisfi.com tiene material realmente muy bueno

    • La idea principal es que reducir el ancho de canal de 5GHz a 40Mhz y mantener 2.4GHz en 20MHz mejora la confiabilidad. Si los fabricantes dejaran bien esos valores por defecto, ayudaría a todos los usuarios; hoy en día, los routers domésticos suelen venir con canales demasiado anchos por defecto. Claro, si en tu entorno no hay problemas, no hace falta cambiar nada

    • Este tipo de ajustes solo importan cuando hay problemas. En la mayoría de los casos, los recursos del Wi‑Fi moderno sobran tanto que casi no se nota diferencia; salvo en transferencias masivas muy excepcionales, apenas sería un poco más lento, así que no siento que valga la pena agregar cableado por eso

    • Usar 40MHz en 2.4GHz equivale a ocupar la mitad de todos los canales disponibles, así que la contaminación de canales puede volverse peor que el beneficio en velocidad. Si alrededor se agregan equipos usando sin control los canales 8 o 9, pronto también se ensucia el resto de la banda y hasta los dispositivos IoT apenas logran captar señal. Algo que con 20MHz bien distribuido daba más de 70Mbps podría caer a apenas 30Mbps. Cuando muchos lo comparten, se llega al punto de tener que forzar 5GHz o desactivar Wi‑Fi incluso para usar FaceTime

    • Yo también tenía cortes frecuentes del Wi‑Fi en el dormitorio con 5GHz a 80MHz, pero hoy mismo lo bajé a 20MHz y la relación señal‑ruido subió unos 5dB, así que volvió a ser posible conectarse desde el dormitorio. Hay un poco más de latencia, pero el efecto se nota

    • El material recomendado es realmente útil; ojalá lo hubiera conocido antes

  • Es una explicación que recuerda que la optimización reciente del Wi‑Fi se ha enfocado en la “competencia de especificaciones de velocidad”, es decir, en la velocidad máxima sobre el papel y no en la experiencia real del usuario. Hace pensar en la vieja “guerra de los megapíxeles” de las cámaras digitales. En la práctica, lo que de verdad importa en el día a día es la capacidad de respuesta y la confiabilidad, pero esos indicadores son difíciles de cuantificar y ni siquiera aparecen en la caja del producto. Incluso hay una ironía: las propias pruebas de velocidad pueden empeorar el rendimiento de la red. Sigue siendo una incógnita si en el futuro los routers y los ISP ofrecerán puntajes basados en la experiencia real, como la capacidad de respuesta, en lugar de solo la velocidad. En el fondo es un problema cultural de redes: la industria se ha obsesionado con cifras admirables en vez de con una mejor experiencia

    • Me da curiosidad cómo la velocidad real afecta el uso y la optimización del “airtime” inalámbrico, y cómo cambia esa relación cuando la velocidad PHY es baja
  • Apple está proponiendo una forma de evaluar con más precisión la calidad de la red, no solo la velocidad simple. Es la especificación network-quality/goresponsiveness, y las Macs recientes ya incluyen una herramienta CLI llamada networkQuality. Esta herramienta mide “round trips por minuto” tanto en reposo como bajo carga. Predice mejor qué tan agradable se siente realmente Internet (respuesta rápida, reacción inmediata), así que resulta más útil en la práctica que una prueba de velocidad común

  • Como la “velocidad” es fácil de medir, termina llevándose toda la atención, y al final todas las partes interesadas se obsesionan con ella. Después de trabajar mucho tiempo en redes, la sensación es que los usuarios atribuyen todos los problemas a falta de velocidad, pero en realidad, una vez superado cierto nivel, muchas veces solo se trata de satisfacción psicológica

  • Incluso en el grupo de trabajo IEEE 802.11bn (Wi‑Fi 8), los objetivos de la especificación se están redefiniendo no como simple aumento de velocidad, sino como confiabilidad, baja latencia (sobre todo en el percentil 95), reducción de pérdida de paquetes y tolerancia a interferencias y movilidad. Pero por experiencia en la industria, las funciones nuevas no suelen aplicarse bien de inmediato en cada generación: las funciones clave de Wi‑Fi 6 recién terminan de funcionar de verdad en Wi‑Fi 7, y las de Wi‑Fi 7 probablemente lo harán en Wi‑Fi 8. Es decir, las funciones introducidas en una generación necesitan pasar una más para operar de forma realmente estable. Aun así, el Wi‑Fi actual ya supera en la práctica 1Gbps e incluso 2.5Gbps de rendimiento efectivo, y mejora considerablemente cada año en confiabilidad y eficiencia

  • Se comenta que muchos ISP, fabricantes de dispositivos y consumidores ejecutan pruebas de velocidad automatizadas de manera periódica, y sorprende la idea de que eso pueda afectar negativamente la experiencia general de Internet de los consumidores. Dan ganas de saber por qué generarían a propósito una carga mayor a la necesaria

    • Como ejemplo existe una empresa llamada SamKnows, que recopila datos de rendimiento en millones de hogares y recientemente fue adquirida por Cisco. Artículo relacionado: Cisco anuncia la adquisición de SamKnows

    • La mayoría de los ISP ejecutan estas pruebas de velocidad solo dentro de su red interna, por lo que el impacto sobre la carga de tráfico real es pequeño. Eso les permite inflar las cifras usando solo tráfico interno sin consumir enlaces externos, así que tampoco les genera problemas como empresa. De hecho, un operador de red de mi ISP me explicó este principio y así lo entendí

    • Incluso la gente que sabe qué es una prueba de velocidad es poquísima, y parece poco probable que la mayoría de los consumidores tenga la capacidad de automatizar algo así

  • Lo más frustrante del Wi‑Fi es el roaming. Mi casa está construida con muros gruesos (hasta 120cm), así que hace falta un AP en casi cada habitación. He hecho muchos esfuerzos de optimización, pero todavía no he vivido un roaming completamente fluido. Desde que cambié a equipo TP‑Link Omada, mejoró respecto a antes, pero aun así no alcanza el nivel de transición sin cortes de un teléfono inalámbrico DECT. Por ejemplo, si estoy viendo Twitch en una habitación y me muevo a la cocina, hay un 30% de probabilidad de que la reproducción se congele; en casos peores, hay que apagar y encender el Wi‑Fi para que cambie. Ya probé todos los consejos sobre canales, solapamiento y demás, pero todavía no es algo impecable

    • Los teléfonos inalámbricos DECT usan la banda de 1.9GHz, así que pierden menos señal en el agua y atraviesan mejor muchos materiales que el Wi‑Fi de 2.4GHz. El problema suele venir de que mucha gente coloca mal los repetidores o extensores Wi‑Fi, o usa equipo barato sin múltiples radios. Si un repetidor o equipo mesh tiene una sola radio, la velocidad se reduce a la mitad en cada salto. Desde la perspectiva de quien opera un ISP, siempre ha sido difícil hacer entender a los clientes que ahorran justamente en la red inalámbrica de su casa cuál es la causa de los resultados que obtienen

    • Yo también vivo en un edificio de estructura parecida, así que entiendo bien el problema, pero pude resolverlo casi por completo conectando los AP con backhaul cableado, evitando solapamiento de canales, limitando 2.4GHz a 20MHz y 5GHz a 40MHz, usando solo los canales 1, 6 y 11 en 2.4GHz, evitando los canales DFS en 5GHz, y bajando la potencia de transmisión en cada AP cuando hace falta para que no se solapen a distancia. También puede servir desactivar 2.4GHz en algunos AP según la necesidad

    • En la mayoría de las llamadas uso teléfonos DECT VoIP y estoy satisfecho con ellos

  • El próximo estándar Wi‑Fi, 802.11bn (WiFi 8), lleva el alias Ultra High Reliability (UHR). Enlace de referencia: Wikipedia sobre 802.11bn. A partir de ahora, la tendencia es considerar mucho más activamente variables distintas de la velocidad

    • Por mucho que mejore el Wi‑Fi, la radio es un medio compartido. No puede asignar de forma independiente todo el ancho de banda a cada par y reutilizarlo repetidamente como hace Ethernet. Comparado con la confiabilidad de Ethernet, lo inalámbrico tiene limitaciones inherentes de estabilidad
 
galadbran 2025-10-12

Uso KT Gigabit Wi‑Fi, y como el ancho de banda del canal está configurado en 80 MHz, comparé los resultados de networkQuality de macOS probando cambiarlo a 40 MHz, y en mi caso, al cambiarlo a 40, tanto la capacidad de respuesta como el rendimiento caen muchísimo.