4 puntos por GN⁺ 2026-03-13 | 2 comentarios | Compartir por WhatsApp
  • Se midió qué tan bien maneja cargas de trabajo de bases de datos la más reciente MacBook Neo con los benchmarks ClickBench y TPC-DS SF300
  • En el experimento se usó un modelo con chip Apple A18 Pro de 6 núcleos, 8GB de memoria y SSD de 512GB, y se realizaron pruebas con DuckDB v1.5.0 y v1.4.4 LTS
  • En ClickBench, la MacBook Neo fue más rápida que una instancia en la nube en la ejecución en frío, lo que se atribuye a la alta velocidad de acceso del SSD NVMe local
  • En la prueba TPC-DS SF300, en algunas consultas hubo spilling a disco de hasta 80GB, pero completó todas las consultas en menos de 79 minutos de forma estable
  • Aunque tiene límites para tareas cotidianas de big data, demostró ser suficientemente útil como laptop para cliente de DuckDB

Especificaciones de la MacBook Neo y objetivo de la prueba

  • Apple presentó la MacBook Neo como un equipo para estudiantes y escritores, pero el equipo de DuckDB evaluó su rendimiento bajo la filosofía de “big data en la laptop”
    • En el modelo vendido en Europa no se incluye cargador, y solo se entregan la laptop y el cable USB-C
    • Las opciones disponibles son únicamente SSD de 256GB o 512GB, y para la prueba se utilizó el modelo de 512GB
  • Equipada con 8GB de memoria y chip Apple A18 Pro (6 núcleos)
    • El iPhone 16 Pro, que usa el mismo chip, ya había completado TPC-H SF100 en menos de 10 minutos en una prueba anterior

Benchmark ClickBench

  • ClickBench es un benchmark de bases de datos analíticas que ejecuta 43 consultas sobre una sola tabla de 100 millones de filas
    • Tamaño de 14GB en formato Parquet y 75GB en CSV
  • Se ejecutó DuckDB v1.5.0 portado para macOS, con el límite de memoria ajustado a 5GB para reducir la dependencia del swap
  • Comparación contra:
    • MacBook Neo (núcleos 2P+4E, 8GB RAM)
    • AWS c6a.4xlarge (16 vCPU, 32GB RAM)
    • AWS c8g.metal-48xl (192 vCPU, 384GB RAM)

Resultados y análisis

  • Resultados de la ejecución en frío:
    • La MacBook Neo completó todas las consultas en menos de 1 minuto, con una mediana de 0.57 segundos y el mejor rendimiento
    • Las instancias en la nube fueron más lentas por la latencia del almacenamiento en red
  • Resultados de la ejecución en caliente:
    • El tiempo total de ejecución de la MacBook Neo mejoró alrededor de 10%
    • La c8g.metal-48xl fue la más rápida en general, pero la MacBook Neo superó a la c6a.4xlarge en tiempo mediano
    • El tiempo total de ejecución fue cerca de 13% más lento que el de la c6a.4xlarge

Benchmark TPC-DS

  • Se usó DuckDB v1.4.4 LTS, con límite de memoria de 6GB
  • SF100:
    • Tiempo mediano por consulta de 1.63 segundos, 15.5 minutos en total
  • SF300:
    • Tiempo mediano por consulta de 6.90 segundos
    • Spilling a disco de hasta 80GB
    • La consulta 67 tardó 51 minutos, pero todas las consultas se completaron en menos de 79 minutos

Aspectos a considerar antes de comprar

  • Para procesamiento continuo de big data, el I/O de disco (1.5GB/s) y los 8GB de memoria son factores limitantes
    • Los modelos Air o Pro (3–6GB/s), u otras laptops basadas en otro sistema operativo, pueden ser más adecuados
  • Sin embargo, si DuckDB se ejecuta en la nube y el equipo local se usa como cliente, la MacBook Neo resulta suficientemente útil
    • También puede responder de forma estable a procesamiento local ocasional de datos

Conclusión

  • La MacBook Neo, pese a ser una laptop económica, puede completar cargas de trabajo de datos a gran escala basadas en DuckDB
  • Incluso frente al entorno en la nube, las ventajas del SSD local se hacen evidentes
  • Se le considera un equipo de especificaciones mínimas con el que desarrolladores o analistas de datos pueden obtener al mismo tiempo portabilidad y rendimiento suficiente para experimentar

2 comentarios

 
GN⁺ 2026-03-13
Opiniones de Hacker News
  • Quería probar hacer «trabajo de desarrollo real» con esta pequeña MacBook Neo
    Hice varias apps de iOS con una M1 MacBook Air y pasé por dos procesos de adquisición de startups
    Incluso editando videos de carreras en 4K de 30 a 45 minutos con FCP no tuve problemas, y la Neo muestra un rendimiento mejor que esa Air

    • Antes desarrollaba un backend en PHP y un frontend en jQuery con una laptop usada con teclado noruego
      Los proyectos que hice con eso me ayudaron a conseguir mi primer trabajo como desarrollador, y ese día conocí Hacker News por primera vez
      Al final, lo importante no es el hardware, sino la capacidad de ejecutar
    • Durante las vacaciones desarrollé usando una combinación de Galaxy S22 + adaptador HDMI + teclado Bluetooth en lugar de una laptop
      Lo conecté a una TV y desarrollé en Elixir con neovim y termux; las pruebas terminaban en 5 segundos
      Los builds de Rust eran lentos, pero fue una experiencia bastante agradable gracias a la portabilidad y la eficiencia de batería
    • Todavía uso una Intel MacBook Pro (16GB) de 2019
      Aguanta bien ejecutando al mismo tiempo builds de Xcode, Docker, Claude Code y Codex
      Eso sí, el ruido del ventilador es como de avión a reacción, así que pedí una nueva M5 Max 16" MBP (48GB)
      Como actualizo cada 7 años, seguramente esta también me dure mucho tiempo
    • Estuve un año compilando apps de iOS con una M1 Mac Mini (8GB)
      Durante los builds se ponía un poco lenta, y al cambiar a Firefox el cambio entre pestañas iba más despacio, pero era totalmente posible
      Haciendo el mismo trabajo en una Intel MacBook Pro (16GB) se sentía mucho más fluido y cómodo
      La diferencia en la capacidad de respuesta del sistema era grande en el uso real
    • La gente suele subestimar los 8GB de memoria
      Gracias a la memoria comprimida, en la práctica puede contener de 2 a 3 veces más datos, y con un SSD NVMe incluso la lectura desde swap es rápida
      Más bien, lo que de verdad se extraña es no tener retroiluminación en el teclado
  • Cuando doy clases, clasifico los datos así: si caben completos en la memoria de una máquina son Small data, si caben en disco son Medium data, y si superan eso son Big data
    Recientemente, al modernizar una app de Python de hace 20 años, hice posible reemplazar el backend por polars o duckDB, y la velocidad mejoró entre 40 y 80 veces
    Este trabajo me tomó apenas dos días

    • Hoy en día incluso se le pueden poner 64TB de RAM DDR5 a un solo sistema, así que salvo que sea a escala de data lake, casi todo es Small data
    • Me da curiosidad por qué con polars hubo una diferencia de velocidad tan grande
      Si se usa correctamente es rápido, pero si se maneja mal el rendimiento puede caer mucho
    • Es un clásico, pero sigue vigente: Your Data Fits in RAM
      Aunque salga caro, la mayoría de los problemas todavía caben en RAM
    • Gracias a NVMe, el acceso a disco se volvió tan rápido que la definición de ‘Medium data’ también se volvió ambigua
      Da la impresión de que la infraestructura de Big Data al estilo de los 2000 ya quedó obsoleta
  • Viendo la publicación de benchmarks móviles de DuckDB, me bajó la confianza
    Comparar una app en Swift con una app CLI me pareció comparar manzanas con bananas

    • Pero ese experimento ejecutó una app CLI local en un smartphone
      No era una comparación entre iPhone y Android, sino una comparación contra un sistema de un paper de investigación sobre procesamiento vectorizado de consultas
  • Esto también es una crítica al rendimiento de cómputo de AWS

    • AWS usó almacenamiento en red EBS, así que la latencia es mucho mayor que en un bus PCIe local
      Especialmente con cargas de acceso aleatorio, eso marca una gran diferencia
    • Aun así, ¿AWS no era más rápido que una laptop?
      Que el disco en red fuera lento no alcanza para criticar a AWS en general
      AWS también tiene instancias con SSD local
    • Pero la nube sigue siendo excesivamente cara
      Mi laptop con M1 Max supera a la mayoría de las instancias en la nube
      El precio del ancho de banda puede diferir hasta 10 mil veces, y ahora la mayoría de una generación de desarrolladores solo conoce el SaaS en la nube
      Vi esa transición en tiempo real
    • En realidad, el artículo dice lo contrario
      “Si haces trabajo de Big Data todos los días en tu laptop, la Neo no es adecuada”
      “Pero si ejecutas DuckDB en la nube y usas la laptop como cliente, es excelente” era la idea central
  • Soy un ecólogo pobre, pero con esta pequeña computadora puedo hacer todo mi trabajo en R y Word
    Estoy muy satisfecho con la gran calidad de construcción que ofrece por su precio

    • ¿Estás investigando moluscos por casualidad?
      Es una pena que la mayoría de los programas públicos de investigación sobre moluscos de nuestra zona ya hayan terminado
    • Pero ¿ya la compraste? Pensé que todavía estaba en preventa
  • Me encanta DuckDB
    Hice una PoC en AWS Lambda para procesar datos almacenados en S3 en formato GZ,
    y reemplacé 400 líneas de código en C# por solo 10 líneas
    Es una herramienta open source impresionante

    • Creo que es uno de los mejores regalos open source que han salido en los últimos años
  • Ojalá la gente que dice “qué puedes hacer con 8GB en 2026” lea este tipo de artículos

  • Me gustaría que más empresas hicieran este tipo de demostraciones generales de rendimiento de hardware
    Es útil mostrar cuánta carga puede aguantar realmente

  • Para hacer los benchmarks, debieron haber usado una instancia con NVMe local (c8gd.4xlarge)

    • Buen punto, así que de hecho hice de nuevo las pruebas con c8gd.4xlarge (950GB NVMe) y c5ad.4xlarge (configuración RAID 0)
      También comparé los resultados de mi MacBook M1 Max local (64GB, 10 núcleos)
      Al final, la M1 Max sigue siendo más rápida que las instancias en la nube
      Con una M5 Pro/Max reciente, la diferencia probablemente sería aún mayor
    • Pero el NVMe local de AWS es almacenamiento efímero, así que hay que subir los datos previamente cada vez
      Aun así, para fines de benchmark eso en realidad lo hace ideal
    • Eso sí, en caso de un apagón total de toda la región todavía no está claro si la persistencia de datos está garantizada
      Si quieres durabilidad completa, todavía hace falta WAL streaming
  • Estuvo bien identificar de inmediato que la instancia en la nube usaba disco en red
    Entonces me pregunto por qué no repitieron el benchmark con instancias de almacenamiento local (c8id.2xlarge, c8id.4xlarge)

 
dkang 2026-03-14

Parece que dejaron un comentario preguntando si la ecóloga pobre estudiaba almejas porque su usuario es clamlady (pensé que "almeja" era una mala traducción, así que entré a ver el original por curiosidad).