Qué es esto...
Comer te deja lleno

Están diciendo obviedades.

 

La realidad
Pro & Max: faltan tokens incluso para correr una sola sesión
API de pago por uso: ¿de verdad puedes costearlo?

 

https://ruby-news.kr/articles/…
Resumen del servicio que estoy creando. Es una traducción, así que es similar, pero GeekNews está mejor organizado y se ve mejor.

 

Parece que probablemente incluye opciones.

 

¡Qué genial!

 
  • Comprimir la semana laboral de 5 días en 4 puede generar estrés, pero
  • una semana laboral de 4 días que preserve los ingresos

me parece una frase muy impactante~

Se siente como: “tomar lo que harías con calma durante 5 días, quitarle un día y hacerlo más apretado”.

Creo que debe haber tipos de organizaciones donde sí sería posible implementarlo jaja..

 

Por mi experiencia usando Claude Code, más que sentir que un agente hace el desarrollo por mí, se sintió más como subcontratar justo la parte de teclear código dentro del proceso de desarrollo.

En muchos casos el diseño lo tiene que hacer una persona, y las instrucciones hay que darlas con tanto detalle que cualquiera que venga pueda seguirlas tal cual, así que se sintió distinto de lo que había escuchado.

Aun así, lo estoy usando satisfecho. Aunque no reduce muchísimo mi trabajo, mientras la IA está trabajando yo puedo hacer otra cosa o darle instrucciones a otra IA, así que me ha ayudado a ahorrar tiempo.

Si van a usar Claude Code, les recomiendo incluir en el prompt palabras de instrucción de razonamiento predefinidas como think deeply o ultrathink, y cambiar a plan mode con Shift+Tab para trabajar.

 

Si alguien ni siquiera los prueba y aun así desprecia y evita a propósito los LLM ahora que de verdad ya se volvieron bastante útiles, el problema es esa persona.
Pero la calidad de los servicios actuales a nivel consumidor está en un punto en el que cuesta usarlos.

He probado los modelos de pago de servicios conocidos como Perplexity, GPT y Gemini, pero todos son más o menos lo mismo.
Aunque uno mismo busque materiales, adjunte enlaces y les dé en bandeja los datos necesarios, ni siquiera los leen bien y solo repiten afirmaciones incorrectas inventándose el contenido.
Además, todos tienen una terquedad rarísima: una vez que empiezan con una afirmación equivocada, ya no hay forma de corregirlos. Simplemente es más rápido desechar toda la conversación y empezar de nuevo.

Sinceramente, me irrita estar forcejeando con algo así. No entienden lo que uno les dice.
En ese tiempo, es más rápido buscar yo mismo la documentación, averiguarlo por mi cuenta y corregirlo.

También probé varios servicios tipo Copilot para elegir uno, pero al final tiré todos.
Funcionan bien para tareas a nivel de snippet, pero es difícil esperar más que eso. Si va a ser así, ¿para qué compartir datos y usarlos conectados a un internet lentísimo? Mejor registro unos cuantos snippets más.

No sé qué servicio usaron ni para qué tareas tan complejas lo usaron quienes dicen haber tenido una buena experiencia.

 

Envejeceremos más rápido, entonces.

 

Se suponía que el conocimiento general era que la velocidad de rotación se iba ralentizando poco a poco, así que vaya giro inesperado.

 

Yo también me pasé de pip a uv, y de verdad solo por la velocidad ya vale la pena hacer el cambio.

 

Extraño los horarios de 6 horas de la época del COVID 😢

 

Cuando salieron VisiCalc, Lotus 1-2-3 y cosas así, todavía había gente dándole a la calculadora o al ábaco... hay una brecha de tiempo más grande de lo que uno cree entre cuando la gente común realmente lo percibe.

 

"Si renuncias a respirar durante 1 hora, la probabilidad de supervivencia baja"
"Al comer, aumenta la sensación de saciedad"

 

Si fuera un problema menor, algunas empresas suelen usar apps de autenticación push como DUO (inicio de sesión en Okta/Jira, aprobación de pull requests, etc.), así que supongo que en este tipo de SO no oficiales habría limitaciones para instalarlas y usarlas. Claro, se podría resolver usando dos teléfonos, pero...

 

Esto era válido antes y sigue siéndolo ahora.
De forma similar, al portar una biblioteca de códecs a ARM, empecé por desarmar uno por uno los kernels hechos con SSE, y cuando terminé de desarmarlos todos y quedó solo la versión escalar, al correr benchmarks del mundo real la diferencia de rendimiento fue significativa.

 

Ah... entonces la información se guarda en .env y .env.schema la carga, ¿no?

 

¿Entonces esto significa que .env.schema debería estar incluido en .gitignore?