- Se enfatiza la experiencia y la importancia de la independencia tecnológica y el autoalojamiento
- Se explica que poseer un dominio y operar un blog de forma autónoma ofrece grandes ventajas para la carrera y el crecimiento personal a largo plazo
- Se menciona el valor de la comunidad y del aprendizaje que se obtiene al compartir conocimiento y código propios dentro del ecosistema abierto de código abierto
- Se presentan la construcción de un Homelab y diversas herramientas open source autoalojadas, destacando la libertad que se siente al usarlas realmente y dejar atrás las limitaciones de los servicios por suscripción
- Se resalta el impacto positivo de compartir contenido basado en Markdown y del espíritu open source en el ecosistema de software y en el fortalecimiento de las capacidades personales
Introducción: el valor de la independencia tecnológica y de construir uno mismo
- Tras ver a PewDiePie instalar Arch Linux y crear por su cuenta productos basados en open source, el autor volvió a reflexionar sobre la importancia del autoalojamiento y de la independencia tecnológica para construir algo propio
- Un dominio, un blog y servicios administrados directamente por uno mismo se convierten con el tiempo en activos acumulativos, y eso tiene un significado mucho mayor que simplemente mudarse de plataforma
El poder de poseer un dominio y operar tu propio blog
- A quienes están por empezar a escribir de nuevo o pensando en buscar trabajo, primero les recomienda comprar su propio dominio y mantener su propio blog
- Como al cambiar de plataforma suele repetirse la pérdida de contenido valioso y del dominio, es importante poseer directamente el dominio y seguir acumulando contenido en la misma dirección
- Con el tiempo, los backlinks, las publicaciones antiguas y lo invertido terminan convirtiéndose en credibilidad de largo plazo
La experiencia del autor con el autoalojamiento y el aprendizaje
- El autor aloja por su cuenta diversos servicios como blog, segundo cerebro, libro y lista de suscripciones, usando herramientas como GoHugo, Listmonk y Memberstack
- Fue desarrollando gradualmente sus capacidades técnicas mediante la construcción de un entorno Homelab, SSH, respaldos, gestión de fotos, Gitea y automatización de proxy/certificados SSL
- Aunque al principio pueda parecer difícil, la mayor recompensa del proceso es el aprendizaje y la satisfacción de lograrlo
El valor del open source y de la comunidad
- El uso y la contribución al software open source hacen posible la independencia tecnológica, y también publica su propio conocimiento y herramientas en GitHub
- En el caso del open source, distintas licencias permiten que cualquiera lo use libremente, y aumentan las oportunidades de retroalimentación comunitaria y colaboración
- El autor empezó a sentirse atraído por el ecosistema open source tras su experiencia usando herramientas BI open source, y hoy la mayor parte de su actividad en línea y de sus textos sobre ingeniería de datos se basa en ello
Linux y Linus Torvalds
- Linux es el núcleo de los dispositivos digitales en todo el mundo, y el hecho de que Linus Torvalds no lo comercializara permitió que se difundiera ampliamente a nivel global
- Torvalds también desarrolló git, que se convirtió en una herramienta indispensable para todos los desarrolladores de software del mundo
- Cuando publicas tu trabajo como open source, obtienes aprendizaje, retroalimentación, contribuciones y conexiones con otras personas, lo que aporta no solo al crecimiento individual sino también al desarrollo de la comunidad
Agradecimiento y herramientas open source
- Hay algunas herramientas open source que el autor usa con frecuencia y por las que se siente agradecido
- Quartz: alternativa open source a Obsidian Publish
- GoatCounter: herramienta de análisis de tráfico del sitio con anonimización
- Listmonk: sistema open source de listas de newsletters
- listmonk-rss: envío automático de correos al escribir en el blog
- Ejemplos de software open source recomendado para un Homelab:
- Paperless: digitalización y gestión de documentos
- PhotoPrism: gestión de fotos autoalojada con IA
- Pi-hole: bloqueo de anuncios en toda la red
- Nginx Proxy Manager: enrutamiento de dominios y automatización de SSL
- Audiobookshelf: servidor de audiolibros/podcasts
- Calibre: gestión de libros electrónicos
- Syncthing: sincronización distribuida de archivos
- Gitea: servicio Git autoalojado y liviano
Experimentar también es posible con hardware barato
- No hace falta un servidor nuevo y costoso: con un servidor cliente de segunda mano y un buen sistema operativo basta para armar un Homelab
- Se valora la alegría de aprender y la independencia que surgen del proceso de construir y operar todo por cuenta propia
Independencia tecnológica y riesgo de plataforma
- Al construir y alojar por cuenta propia, uno queda más libre de riesgos como cambios de funciones o cierres de servicios de grandes plataformas como Google y Apple
- La verdadera ventaja de la independencia tecnológica está en obtener la libertad de diseñar y modificar directamente el propio entorno y sus características
Cierre y la importancia de Markdown
-
Se subraya la alegría del open source, de crear por cuenta propia y de compartir experiencias, además de destacar que toda la base de sus soluciones y de su producción de contenido está unificada en Markdown
-
Markdown garantiza compatibilidad entre distintas plataformas y se ha convertido en una herramienta estándar de la cultura open source y de compartir conocimiento
-
Más blogs sobre ingeniería de datos, notas de segundo cerebro y el libro que está escribiendo en público pueden consultarse en ssp.sh y GitHub
-
Siempre son bienvenidos el intercambio de experiencias y la conversación con los lectores
1 comentarios
Opinión de Hacker News
Perdón por el autopromocional, pero quiero comentar una realidad: para hacer self-hosting no hace falta comprar hardware nuevo a la fuerza. Después de unos años, una laptop vieja que ya era insoportablemente lenta con Windows todavía puede rendir bastante bien como servidor Linux. Es muy probable encontrar laptops viejas olvidadas en casa o entre amistades; yo mismo sigo usando una laptop i3 de 2011 entre dos personas y, ya en 2025, no parece necesitar actualización. Además, las laptops suelen ser más eficientes en consumo en reposo, así que a largo plazo pueden ser una opción más razonable que una desktop. Me parece que una laptop es una excelente primera candidata a servidor para quien apenas empieza con self-hosting. (Por cierto, las laptops no traen UPS integrado, así que si la vas a dejar conectada 24/7, recomiendo quitar la batería).
Artículo sobre reutilizar hardware viejo
Confieso que incluso este comentario lo estoy escribiendo en una Acer de 13 años con Linux Mint XFCE. Siempre me da pena tirar equipos viejos, así que incluso después de comprar una laptop nueva la dejé conectada por HDMI a la TV de la sala, con un teclado/trackpad inalámbrico Logitech K400+ de $25. Sirve sin problema para navegar, YouTube y Netflix; a veces también abro VS Code o Thunderbird para trabajar, e incluso corre juegos indie de Steam con gamepad sin mayor problema. Qué lástima que Framework todavía no envía a mi país; si llegara, creo que este tipo de reutilización crecería muchísimo más
En mi zona (un complejo de departamentos de 250 hogares en Suecia), la gente tira computadoras viejas al área de basura electrónica como si nada. Como personaje de Mad Max, cada vez que saco a pasear al perro salgo a explorar varias veces al día. Armo máquinas combinando piezas de varias, les instalo debian y corro contenedores docker para todo tipo de usos. Incluso he regalado estos servidores Frankenstein a mis padres, primos y amistades. Es sorprendente cuánto equipo perfectamente usable tira la gente. También aparecen laptops sin contraseña con relativa frecuencia; entras a Windows y están llenas de fotos familiares. A veces hasta encuentro iPhones de hace unos 5 años, desbloqueados. No queda más que pensar que vivimos en un mundo muy raro
También tengo una Mac-Mini modelo 2012 en casa. Me la regalaron y nunca pensé cambiarme a Mac; no es poderosa, pero su rendimiento no está mal. La encendí la Navidad pasada y ya con el sistema base iba lentísima; después de actualizar macOS quedó prácticamente inutilizable. Siguiendo un video de YouTube, le cambié el disco por un SSD, instalé Debian y monté CasaOS (un OS/UI de home server basado en web). Desde entonces armé un entorno donde entro desde fuera con Wireguard y hago streaming de música con Navidrome. Todavía no entiendo bien Docker, pero voy aprendiendo cosas como el mapeo de PATH y demás
Si no te incomoda comprar de segunda mano, ahora mismo estoy armando un nodo Proxmox por menos de 2,000 euros con Threadripper de 3.ª generación, 32 núcleos/64 hilos, 256GB ram, 2x10G, 2x2.5G, una interfaz dedicada 1G para administración IPMI y 64 PCIe gen 4 lanes
En configuraciones por debajo de RAID6/RAIDZ2 hay un riesgo bastante grande de pérdida de datos. La mayoría de las laptops ni siquiera tienen suficientes puertos SATA/M.2 para montar paridad, así que si quieres tolerancia a fallos a nivel RAID, al final sí necesitas hardware nuevo. Si sigues el principio de distribuir los respaldos en al menos 2 ubicaciones físicas, lo ideal sería tener ambas cosas
Entiendo por qué alguien querría hacer self-hosting, pero también entiendo perfectamente por qué no querría. Es una lata: hay que actualizar docker, si algo se rompe eres tú quien lo arregla, y aun cuando funciona bien muchas veces se siente un poco improvisado en vez de realmente pulido. Hoy en día la lista de herramientas self-hosted que de verdad me ahorran tiempo es muy corta (la primera es firefly); en muchos casos intenté configurarlas, se rompieron y terminé abandonándolas. Últimamente, si una empresa respeta la privacidad y cobra algo razonable, simplemente le pago
Creo que Docker es parte del problema. Docker mete capas de indirección innecesarias en almacenamiento, red y otras áreas, y para actualizar por seguridad muchas veces hay que reconstruir contenedores o esperar a que otra persona lo haga. Si se puede, es más fácil a largo plazo quedarse con servicios que se distribuyan como paquetes upstream del sistema operativo o como binarios únicos (algo común en proyectos hechos en go)
No entiendo por qué habría que actualizar Docker sí o sí. En mi caso llevo más de un año corriéndolo sin actualizar. Subir de versión las imágenes docker me toma unos 15 minutos al mes, más o menos. Y la realidad es que casi no existen empresas que respeten la privacidad, y menos aún empresas en las que puedas confiar que mantendrán sus propias políticas con el paso de los años
Incluso encontrar una empresa que respete la privacidad y además tenga buen precio es extremadamente difícil
Me da curiosidad saber con qué proyecto tuviste problemas. Mi experiencia es que cuando un proyecto ya te da hasta Docker Compose, casi siempre funciona sin mayor drama. Y también creo que casi todas las empresas tarde o temprano terminan traicionando la confianza. Por eso, mejor ni darles esa oportunidad. Yo tengo Home Assistant self-hosted, y es peculiar porque la empresa hasta se blindó legalmente para evitar operar en contra de sus usuarios
Hago self-hosting de casi todo lo que necesito, pero hace poco me topé con una crisis de verdad cuando el internet empezó a caerse de forma intermitente. Eso me obligó a hacerme estas preguntas
Al final concluí que necesito archivar mucha más documentación, y que NixOS es casi inutilizable offline si no montas tu propio servidor de caché, lo cual es muy incómodo. Aun así, el resultado del experimento fue descubrir que puedo self-hostear la mayoría de lo que necesito incluso sin internet, y que en ese entorno mi productividad de hecho subió bastante
Probé hostear
devdocspor mi cuenta y usar zeal (visor de documentación offline para Linux), y eso resolvió buena parte del problema de la documentación sin conexión.devdocs github
sitio oficial de zealdocs
Cada vez que tengo una caída, la convierto en una oportunidad para detectar debilidades de mi sistema. Si es algo inevitable por problemas de upstream, ni modo, pero cuando sí hay margen de respuesta me gusta armar escenarios equilibrando costo y probabilidad; de hecho, ese trabajo en sí me parece divertido
Yo sí llevé esta idea de lo offline al extremo. Los periodos de desconexión total fueron justo cuando alcancé mis picos más altos de productividad. Tengo un alias de bash para guardar sitios completos de forma recursiva con wget, uso yt-dlp para bajar videos, tengo una copia offline completa de Wikipedia con Kiwix, el correo también lo guardo localmente y permite cola de envío offline, la extensión SingleFile sirve muy bien para guardar páginas individuales, y Zeal es una herramienta muy recomendable como navegador de documentación open source
Coincido con el problema de que “NixOS no sirve offline si no tienes tu propia caché”. Si usas software manejado por un package manager, necesitas sí o sí caché o respaldo del repositorio. El hecho de que el sistema dependa de que todas las personas al final del árbol de dependencias sigan cumpliendo su parte es, para mí, uno de los puntos más frágiles de cómo se desarrolla software hoy. Para software de usuario final, prefiero mucho más paquetes individuales con todas sus dependencias incluidas. Al final, eso es lo que realmente termina guardado en el disco
Kiwix (solución offline para Wikipedia) y varios setups de jellyfin son recursos offline potentísimos. Pero distribuciones como NixOS o Gentoo tienden a requerir conexión constante a internet. Hacer mirror de todos los paquetes es casi imposible en la práctica
Sobre el consejo de “primero compra un dominio”: en realidad, un dominio no se compra de verdad, se renta. Si falla un solo cobro, te sacan de inmediato. Da hasta miedo. Es triste lo efímera que puede ser una identidad online
Esa parte de que “los dominios solo se rentan” aplica si usas únicamente la root zone/registry aprobada por ICANN, pero yo llevo años operando mi propio registry experimental y una root zone personalizada que no comparto con nadie. También experimenté con TLD personalizados que incorporan sistemas completos de clasificación mundial de productos y servicios dentro del nombre de dominio, y eso me hizo notar de primera mano lo ambiguos e inadecuados que son muchos TLD de ICANN
Esto es una especie de limitación técnica. Si configurara todos mis dispositivos (o sea, los consumidores de nombres de dominio) para que reconocieran como “XorNot.com” todo lo firmado con cierta clave pública, también podría reemplazar el sistema. Con más soporte técnico, creo que toda la estructura actual podría sustituirse por una “lista de nombres y claves confiables”
Estamos en una época donde el ecosistema de herramientas para self-hosting ha avanzado muchísimo. Puedes empezar con componentes hosteados y luego ir reemplazando cada parte por versiones self-hosted. Yo mismo tengo mi blog self-hosted en un servidor en casa.
Al frente uso Cloudflare Tunnel, aunque antes probé nginx+letsencrypt+public_ip, y el almacenamiento de datos también lo puedo intercambiar entre Cloudflare R2, S3 o un NAS local (si pasas por FUSE, la forma de acceso sigue siendo la misma).
En cambio, los únicos recursos que realmente tienes que rentar son el dominio (aunque parezca compra, sigue siendo renta) y la conexión a internet; casi todo lo demás hoy es opcional. Claro, si apagas ciertos servicios la experiencia se vuelve menos cómoda, pero lo básico sigue funcionando.
De verdad vivimos una época muchísimo más fácil que antes. En los 90 y principios de los 2000, un entorno de herramientas así era inimaginable.
Eso sí, la parte de evitar spam en correo se ha vuelto muchísimo más complicada. Hasta hace 8 años yo mismo operaba mi correo, pero ahora uso G Suite
Para mí, la cuestión no es tanto “si vas a hacer self-hosting”, sino “si tienes la capacidad de hacerlo”. Esa es la mirada inclusiva: si te faltan habilidades técnicas o prefieres pagar, entonces se lo delegas a otra persona. Quienes piensan solo en “pues pago y ya” son los que a largo plazo enfrentan el mayor riesgo real. Hoy muchos negocios diseñan su estrategia para capturar clientes tomando como rehén su dependencia técnica de largo plazo. Aunque no te importe FOSS, la posibilidad de migrar de proveedor sí es un tema importantísimo. Si quedas amarrado, en cualquier momento pueden tratarte de forma abusiva. Hay muchas empresas que piensan exclusivamente en esos términos
Valoro mucho a Zulip por ser open source, self-hosted, cloud y además permitir migración en ambos sentidos
En una época donde sobran developers y la calidad del código que se puede generar en casa con AI varía tanto, el self-hosting claramente puede volverse una tendencia fuerte
Con solo aprender lo básico de Linux, aunque no lo necesites estrictamente, mucha gente se engancha con el self-hosting por la emoción y la satisfacción de “correr mis propios servicios”.
Pero el efecto más importante es eliminar el riesgo real de que una plataforma de la que dependes por completo te expulse sin motivo. Si hasta pierdes tu cuenta de Gmail, una persona “normal” puede quedarse sin identidad online, sin resets de contraseña y hasta sin login en sus apps. Seguro en Hacker News también hay gente a la que perder Gmail le complicaría seriamente la vida. Por eso creo que, como mínimo, tu identidad de correo debe ser tuya. Y este mismo principio hay que repetirlo para web hosting, AWS, Spotify, Netflix y cualquier otro servicio online; cambiar a “otro host de cloud” no resuelve el problema de fondo.
Instalar un servidor de correo es fácil y hay mucha información, pero en lo personal me frustra que casi no haya material sobre operarlo en la práctica (sobre todo compatibilidad, incidentes, etc.). Por ejemplo, si Google mete mi servidor a una blacklist, ¿a quién le hablo? ¿Existe un procedimiento claro a partir del mensaje de error? En la vida real hace falta más apoyo. Necesitamos guías sobre cómo responder ante factores externos arbitrarios, como bloques globales de IP. No me refiero a DKIM o DNS como protocolos, sino a lineamientos prácticos para lidiar con otros proveedores en operación real del servicio
Lo correcto es poseer tu propio dominio, conectarlo al proveedor de email que quieras y, si hay problemas, moverlo enseguida a otro. El dominio en sí es barato, y la respuesta correcta es nunca usar la dirección propia del proveedor de correo.
Y este principio aplica igual si operas tu propio servidor de correo o si usas un servicio comercial. Son temas separados
El riesgo es real y está claro, pero no sé si sea un riesgo que de verdad le ocurra a tanta gente. La mayoría de quienes adoptaron Gmail al principio lo hicieron porque las alternativas existentes eran muy malas. El correo del ISP, de la universidad o del trabajo podía desaparecerte la cuenta en cualquier momento. El self-hosting “resuelve parcialmente” el problema, pero si no tienes la capacidad de mantener la seguridad, ni siquiera con un servidor de correo propio tienes control total. Hay demasiadas cosas que vigilar, como la renovación del dominio, y si lo descuidas también aquí pierdes la cuenta. Yo sí entiendo por qué Gmail y unos pocos proveedores grandes son tan populares. Para la mayoría de la gente, en el corto y mediano plazo, esa sigue siendo la mejor opción en la práctica
Cuando haces self-hosting en casa, me pregunto qué riesgo es mayor: que falle un HDD o perder tu cuenta de Gmail. En cuanto empiezas a hostear por tu cuenta, se disparan las cosas que tienes que atender: espacio físico, estrategia de backups, gestión de actualizaciones... y si además consideras un apagón durante una actualización o respaldo, al final también terminas necesitando un UPS. En mi caso, incluso me tocó un UPS defectuoso que terminó dañando los discos duros de mi NAS. Al final se vuelve demasiado trabajo y te queda menos tiempo para concentrarte en la vida diaria
Mi postura es que el self-hosting también puede introducir riesgos importantes. Si pierdes tu private key local o el dominio principal de tu correo, no hay recuperación posible. Para 2FA y recuperación de cuenta, los servicios externos son mucho más cómodos. No estoy en contra del self-hosting en sí, pero creo que para la mayoría de la gente es muchísimo más seguro asegurar la posibilidad de recuperar cuentas
Desde que apareció el instalador oficial de Arch Linux, ya no me parece justo decir que sigue siendo difícil. Sí, todavía entras por línea de comandos, pero comparado con la época en que había que romperse la cabeza calculando bloques de partición, hoy es muchísimo más fácil
En casa administro con Portainer un clúster de 4 nodos de pi con Kubernetes y también una mini PC Intel N150.
Entre las herramientas open source de operación, estas me cambiaron muchísimo la productividad (todas corren en entorno de contenedores)