- Se midió qué tan bien maneja cargas de trabajo de bases de datos la más reciente MacBook Neo con los benchmarks ClickBench y TPC-DS SF300
- En el experimento se usó un modelo con chip Apple A18 Pro de 6 núcleos, 8GB de memoria y SSD de 512GB, y se realizaron pruebas con DuckDB v1.5.0 y v1.4.4 LTS
- En ClickBench, la MacBook Neo fue más rápida que una instancia en la nube en la ejecución en frío, lo que se atribuye a la alta velocidad de acceso del SSD NVMe local
- En la prueba TPC-DS SF300, en algunas consultas hubo spilling a disco de hasta 80GB, pero completó todas las consultas en menos de 79 minutos de forma estable
- Aunque tiene límites para tareas cotidianas de big data, demostró ser suficientemente útil como laptop para cliente de DuckDB
Especificaciones de la MacBook Neo y objetivo de la prueba
- Apple presentó la MacBook Neo como un equipo para estudiantes y escritores, pero el equipo de DuckDB evaluó su rendimiento bajo la filosofía de “big data en la laptop”
- En el modelo vendido en Europa no se incluye cargador, y solo se entregan la laptop y el cable USB-C
- Las opciones disponibles son únicamente SSD de 256GB o 512GB, y para la prueba se utilizó el modelo de 512GB
- Equipada con 8GB de memoria y chip Apple A18 Pro (6 núcleos)
- El iPhone 16 Pro, que usa el mismo chip, ya había completado TPC-H SF100 en menos de 10 minutos en una prueba anterior
Benchmark ClickBench
- ClickBench es un benchmark de bases de datos analíticas que ejecuta 43 consultas sobre una sola tabla de 100 millones de filas
- Tamaño de 14GB en formato Parquet y 75GB en CSV
- Se ejecutó DuckDB v1.5.0 portado para macOS, con el límite de memoria ajustado a 5GB para reducir la dependencia del swap
- Comparación contra:
- MacBook Neo (núcleos 2P+4E, 8GB RAM)
- AWS c6a.4xlarge (16 vCPU, 32GB RAM)
- AWS c8g.metal-48xl (192 vCPU, 384GB RAM)
Resultados y análisis
- Resultados de la ejecución en frío:
- La MacBook Neo completó todas las consultas en menos de 1 minuto, con una mediana de 0.57 segundos y el mejor rendimiento
- Las instancias en la nube fueron más lentas por la latencia del almacenamiento en red
- Resultados de la ejecución en caliente:
- El tiempo total de ejecución de la MacBook Neo mejoró alrededor de 10%
- La c8g.metal-48xl fue la más rápida en general, pero la MacBook Neo superó a la c6a.4xlarge en tiempo mediano
- El tiempo total de ejecución fue cerca de 13% más lento que el de la c6a.4xlarge
Benchmark TPC-DS
- Se usó DuckDB v1.4.4 LTS, con límite de memoria de 6GB
- SF100:
- Tiempo mediano por consulta de 1.63 segundos, 15.5 minutos en total
- SF300:
- Tiempo mediano por consulta de 6.90 segundos
- Spilling a disco de hasta 80GB
- La consulta 67 tardó 51 minutos, pero todas las consultas se completaron en menos de 79 minutos
Aspectos a considerar antes de comprar
- Para procesamiento continuo de big data, el I/O de disco (1.5GB/s) y los 8GB de memoria son factores limitantes
- Los modelos Air o Pro (3–6GB/s), u otras laptops basadas en otro sistema operativo, pueden ser más adecuados
- Sin embargo, si DuckDB se ejecuta en la nube y el equipo local se usa como cliente, la MacBook Neo resulta suficientemente útil
- También puede responder de forma estable a procesamiento local ocasional de datos
Conclusión
- La MacBook Neo, pese a ser una laptop económica, puede completar cargas de trabajo de datos a gran escala basadas en DuckDB
- Incluso frente al entorno en la nube, las ventajas del SSD local se hacen evidentes
- Se le considera un equipo de especificaciones mínimas con el que desarrolladores o analistas de datos pueden obtener al mismo tiempo portabilidad y rendimiento suficiente para experimentar
2 comentarios
Opiniones de Hacker News
Quería probar hacer «trabajo de desarrollo real» con esta pequeña MacBook Neo
Hice varias apps de iOS con una M1 MacBook Air y pasé por dos procesos de adquisición de startups
Incluso editando videos de carreras en 4K de 30 a 45 minutos con FCP no tuve problemas, y la Neo muestra un rendimiento mejor que esa Air
Los proyectos que hice con eso me ayudaron a conseguir mi primer trabajo como desarrollador, y ese día conocí Hacker News por primera vez
Al final, lo importante no es el hardware, sino la capacidad de ejecutar
Lo conecté a una TV y desarrollé en Elixir con neovim y termux; las pruebas terminaban en 5 segundos
Los builds de Rust eran lentos, pero fue una experiencia bastante agradable gracias a la portabilidad y la eficiencia de batería
Aguanta bien ejecutando al mismo tiempo builds de Xcode, Docker, Claude Code y Codex
Eso sí, el ruido del ventilador es como de avión a reacción, así que pedí una nueva M5 Max 16" MBP (48GB)
Como actualizo cada 7 años, seguramente esta también me dure mucho tiempo
Durante los builds se ponía un poco lenta, y al cambiar a Firefox el cambio entre pestañas iba más despacio, pero era totalmente posible
Haciendo el mismo trabajo en una Intel MacBook Pro (16GB) se sentía mucho más fluido y cómodo
La diferencia en la capacidad de respuesta del sistema era grande en el uso real
Gracias a la memoria comprimida, en la práctica puede contener de 2 a 3 veces más datos, y con un SSD NVMe incluso la lectura desde swap es rápida
Más bien, lo que de verdad se extraña es no tener retroiluminación en el teclado
Cuando doy clases, clasifico los datos así: si caben completos en la memoria de una máquina son Small data, si caben en disco son Medium data, y si superan eso son Big data
Recientemente, al modernizar una app de Python de hace 20 años, hice posible reemplazar el backend por polars o duckDB, y la velocidad mejoró entre 40 y 80 veces
Este trabajo me tomó apenas dos días
Si se usa correctamente es rápido, pero si se maneja mal el rendimiento puede caer mucho
Aunque salga caro, la mayoría de los problemas todavía caben en RAM
Da la impresión de que la infraestructura de Big Data al estilo de los 2000 ya quedó obsoleta
Viendo la publicación de benchmarks móviles de DuckDB, me bajó la confianza
Comparar una app en Swift con una app CLI me pareció comparar manzanas con bananas
No era una comparación entre iPhone y Android, sino una comparación contra un sistema de un paper de investigación sobre procesamiento vectorizado de consultas
Esto también es una crítica al rendimiento de cómputo de AWS
Especialmente con cargas de acceso aleatorio, eso marca una gran diferencia
Que el disco en red fuera lento no alcanza para criticar a AWS en general
AWS también tiene instancias con SSD local
Mi laptop con M1 Max supera a la mayoría de las instancias en la nube
El precio del ancho de banda puede diferir hasta 10 mil veces, y ahora la mayoría de una generación de desarrolladores solo conoce el SaaS en la nube
Vi esa transición en tiempo real
“Si haces trabajo de Big Data todos los días en tu laptop, la Neo no es adecuada”
“Pero si ejecutas DuckDB en la nube y usas la laptop como cliente, es excelente” era la idea central
Soy un ecólogo pobre, pero con esta pequeña computadora puedo hacer todo mi trabajo en R y Word
Estoy muy satisfecho con la gran calidad de construcción que ofrece por su precio
Es una pena que la mayoría de los programas públicos de investigación sobre moluscos de nuestra zona ya hayan terminado
Me encanta DuckDB
Hice una PoC en AWS Lambda para procesar datos almacenados en S3 en formato GZ,
y reemplacé 400 líneas de código en C# por solo 10 líneas
Es una herramienta open source impresionante
Ojalá la gente que dice “qué puedes hacer con 8GB en 2026” lea este tipo de artículos
Me gustaría que más empresas hicieran este tipo de demostraciones generales de rendimiento de hardware
Es útil mostrar cuánta carga puede aguantar realmente
Para hacer los benchmarks, debieron haber usado una instancia con NVMe local (c8gd.4xlarge)
También comparé los resultados de mi MacBook M1 Max local (64GB, 10 núcleos)
Al final, la M1 Max sigue siendo más rápida que las instancias en la nube
Con una M5 Pro/Max reciente, la diferencia probablemente sería aún mayor
Aun así, para fines de benchmark eso en realidad lo hace ideal
Si quieres durabilidad completa, todavía hace falta WAL streaming
Estuvo bien identificar de inmediato que la instancia en la nube usaba disco en red
Entonces me pregunto por qué no repitieron el benchmark con instancias de almacenamiento local (c8id.2xlarge, c8id.4xlarge)
Parece que dejaron un comentario preguntando si la ecóloga pobre estudiaba almejas porque su usuario es
clamlady(pensé que "almeja" era una mala traducción, así que entré a ver el original por curiosidad).