- El sueño de reemplazar a los desarrolladores de análisis de datos se ha repetido durante 50 años, desde SQL hasta la IA; las herramientas cambiaron, pero la necesidad de especialistas no desapareció
- Las herramientas de cada época sí aumentaron la productividad, pero las tareas clave —comprender el negocio y tomar decisiones de modelado— no se automatizaron
- Self-service, semantic layer y analytics engineering ampliaron la accesibilidad, pero también crearon nuevas formas de roles especializados
- Las herramientas basadas en IA aceleraron mucho la generación de código, pero el proceso mental para decidir qué construir sigue siendo tarea humana
- El cuello de botella del trabajo con datos no está en teclear ni en las herramientas, sino en el pensamiento y el criterio; eso no ha cambiado en 50 años
- Este artículo es una versión enfocada en datos inspirada en "El sueño de reemplazar a los desarrolladores que se repite cada década"
Un patrón que se repite: por qué siempre aparece el mismo sueño
- Cada década aparece una nueva herramienta que promete simplificar la construcción de plataformas de datos y reducir la dependencia de especialistas
- Los negocios se frustran por la lentitud en la entrega de datos, y los equipos de datos siguen abrumados por solicitudes interminables
- La razón por la que este ciclo se ha repetido durante 50 años está en la naturaleza misma del trabajo de análisis de datos
1974: SQL y el nacimiento de la “base de datos que habla inglés”
- SQL fue diseñado para que personas no desarrolladoras pudieran consultar datos, pero en la práctica seguía requiriendo entender joins y agregaciones complejas
- El ideal de que los usuarios de negocio consultaran directamente nunca se concretó, y surgieron nuevos roles especializados
- El acceso a los datos se volvió más fácil, pero la especialización siguió siendo necesaria
Años 80: la promesa de OLAP y los lenguajes de cuarta generación
- Se expandió la idea de que, si la estructura de los datos se ajustaba a la forma de pensar del negocio, los usuarios podrían analizar por su cuenta
- Los servidores MOLAP sí entregaron productividad real a las áreas de finanzas y planeación
- El diseño dimensional, la optimización de rendimiento y el trabajo de integración seguían requiriendo conocimiento especializado
- Las herramientas cambiaron, pero el rol del especialista solo cambió de forma
Años 90: data warehouse y modelado dimensional
- El modelado dimensional fue un intento de ocultar la complejidad en la capa ETL y simplificar el análisis para el usuario
- A pesar de grandes inversiones, muchos proyectos se retrasaron o fracasaron
- El trabajo de modelar con precisión las reglas de negocio y las excepciones siguió siendo un terreno imposible de automatizar
Años 2000: semantic layer y BI self-service
- La semantic layer abstrajo los términos técnicos en lenguaje de negocio
- El BI self-service elevó mucho la accesibilidad a la visualización
- La inconsistencia en definiciones y la confusión de datos surgieron como nuevos problemas
- La gestión centralizada y la gobernanza volvieron a cobrar importancia
Años 2010: analytics engineering y ELT
- La expansión de los data warehouses en la nube permitió transformaciones basadas en SQL
- Los analistas pudieron construir directamente parte de los pipelines de datos
- dbt introdujo prácticas de desarrollo como testing, documentación y control de versiones en el ámbito de datos
- Mientras más grande era el proyecto, más se mantenía la importancia de la arquitectura y el criterio
La era de la IA: qué cambió y qué sigue igual
- La IA ejecuta muy rápido el trabajo mecánico de traducir una intención a código
- Elegir tipos de diseño dimensional, definir métricas y lograr acuerdos de negocio sigue requiriendo criterio humano
- La velocidad de desarrollo aumentó, pero el tiempo total del proyecto sigue yéndose en pensar y coordinar
- El mayor cambio es que el ciclo de feedback se acortó, permitiendo mejoras iterativas
La restricción que no cambia: la complejidad del pensamiento
- Un data warehouse es un modelo del negocio, y entenderlo correctamente es indispensable
- Detrás de requerimientos que parecen preguntas simples existen innumerables definiciones y excepciones
- Esa complejidad pertenece a un terreno que las herramientas no pueden eliminar
Qué significa esto para los líderes de datos
- La clave no es si una herramienta reemplaza a los especialistas, sino cuánto aumenta su productividad
- Hay que evaluar si reduce trabajo repetitivo y permite concentrarse en decisiones de alto valor
- Las nuevas herramientas exigen nuevas capacidades técnicas
Por qué este sueño sigue vivo
- El sueño de eliminar a los especialistas ha funcionado como motor que impulsa la innovación en herramientas
- El sueño nunca se concretó por completo, pero en el proceso sí creó valor real
- La IA tampoco reemplazará a los especialistas, pero sí los hará más eficientes
Hacia dónde avanzar
- No hay razón para rechazar nuevas herramientas, pero las expectativas deben fijarse de forma realista
- El principal objeto de inversión no son las herramientas, sino las personas que entienden la complejidad del negocio
- El análisis de datos, al final, consiste en convertir la comprensión del negocio en una forma consultable
- Lo que no ha cambiado en 50 años es que el mayor cuello de botella sigue siendo el criterio y el pensamiento
Aún no hay comentarios.