11 puntos por GN⁺ 2026-01-27 | Aún no hay comentarios. | Compartir por WhatsApp
  • El sueño de reemplazar a los desarrolladores de análisis de datos se ha repetido durante 50 años, desde SQL hasta la IA; las herramientas cambiaron, pero la necesidad de especialistas no desapareció
  • Las herramientas de cada época sí aumentaron la productividad, pero las tareas clave —comprender el negocio y tomar decisiones de modelado— no se automatizaron
  • Self-service, semantic layer y analytics engineering ampliaron la accesibilidad, pero también crearon nuevas formas de roles especializados
  • Las herramientas basadas en IA aceleraron mucho la generación de código, pero el proceso mental para decidir qué construir sigue siendo tarea humana
  • El cuello de botella del trabajo con datos no está en teclear ni en las herramientas, sino en el pensamiento y el criterio; eso no ha cambiado en 50 años
  • Este artículo es una versión enfocada en datos inspirada en "El sueño de reemplazar a los desarrolladores que se repite cada década"

Un patrón que se repite: por qué siempre aparece el mismo sueño

  • Cada década aparece una nueva herramienta que promete simplificar la construcción de plataformas de datos y reducir la dependencia de especialistas
  • Los negocios se frustran por la lentitud en la entrega de datos, y los equipos de datos siguen abrumados por solicitudes interminables
  • La razón por la que este ciclo se ha repetido durante 50 años está en la naturaleza misma del trabajo de análisis de datos

1974: SQL y el nacimiento de la “base de datos que habla inglés”

  • SQL fue diseñado para que personas no desarrolladoras pudieran consultar datos, pero en la práctica seguía requiriendo entender joins y agregaciones complejas
  • El ideal de que los usuarios de negocio consultaran directamente nunca se concretó, y surgieron nuevos roles especializados
  • El acceso a los datos se volvió más fácil, pero la especialización siguió siendo necesaria

Años 80: la promesa de OLAP y los lenguajes de cuarta generación

  • Se expandió la idea de que, si la estructura de los datos se ajustaba a la forma de pensar del negocio, los usuarios podrían analizar por su cuenta
  • Los servidores MOLAP sí entregaron productividad real a las áreas de finanzas y planeación
  • El diseño dimensional, la optimización de rendimiento y el trabajo de integración seguían requiriendo conocimiento especializado
  • Las herramientas cambiaron, pero el rol del especialista solo cambió de forma

Años 90: data warehouse y modelado dimensional

  • El modelado dimensional fue un intento de ocultar la complejidad en la capa ETL y simplificar el análisis para el usuario
  • A pesar de grandes inversiones, muchos proyectos se retrasaron o fracasaron
  • El trabajo de modelar con precisión las reglas de negocio y las excepciones siguió siendo un terreno imposible de automatizar

Años 2000: semantic layer y BI self-service

  • La semantic layer abstrajo los términos técnicos en lenguaje de negocio
  • El BI self-service elevó mucho la accesibilidad a la visualización
  • La inconsistencia en definiciones y la confusión de datos surgieron como nuevos problemas
  • La gestión centralizada y la gobernanza volvieron a cobrar importancia

Años 2010: analytics engineering y ELT

  • La expansión de los data warehouses en la nube permitió transformaciones basadas en SQL
  • Los analistas pudieron construir directamente parte de los pipelines de datos
  • dbt introdujo prácticas de desarrollo como testing, documentación y control de versiones en el ámbito de datos
  • Mientras más grande era el proyecto, más se mantenía la importancia de la arquitectura y el criterio

La era de la IA: qué cambió y qué sigue igual

  • La IA ejecuta muy rápido el trabajo mecánico de traducir una intención a código
  • Elegir tipos de diseño dimensional, definir métricas y lograr acuerdos de negocio sigue requiriendo criterio humano
  • La velocidad de desarrollo aumentó, pero el tiempo total del proyecto sigue yéndose en pensar y coordinar
  • El mayor cambio es que el ciclo de feedback se acortó, permitiendo mejoras iterativas

La restricción que no cambia: la complejidad del pensamiento

  • Un data warehouse es un modelo del negocio, y entenderlo correctamente es indispensable
  • Detrás de requerimientos que parecen preguntas simples existen innumerables definiciones y excepciones
  • Esa complejidad pertenece a un terreno que las herramientas no pueden eliminar

Qué significa esto para los líderes de datos

  • La clave no es si una herramienta reemplaza a los especialistas, sino cuánto aumenta su productividad
  • Hay que evaluar si reduce trabajo repetitivo y permite concentrarse en decisiones de alto valor
  • Las nuevas herramientas exigen nuevas capacidades técnicas

Por qué este sueño sigue vivo

  • El sueño de eliminar a los especialistas ha funcionado como motor que impulsa la innovación en herramientas
  • El sueño nunca se concretó por completo, pero en el proceso sí creó valor real
  • La IA tampoco reemplazará a los especialistas, pero sí los hará más eficientes

Hacia dónde avanzar

  • No hay razón para rechazar nuevas herramientas, pero las expectativas deben fijarse de forma realista
  • El principal objeto de inversión no son las herramientas, sino las personas que entienden la complejidad del negocio
  • El análisis de datos, al final, consiste en convertir la comprensión del negocio en una forma consultable
  • Lo que no ha cambiado en 50 años es que el mayor cuello de botella sigue siendo el criterio y el pensamiento

Aún no hay comentarios.

Aún no hay comentarios.