Los ingresos de la App Store crecieron, pero aun así es difícil para los desarrolladores ganarse la vida... mmm, ¿de verdad será un análisis acertado? En general, en estas cosas la ventaja del first mover suele ser muy fuerte, así que uno termina usando primero las que tienen más reseñas, ¿no? Sobre todo si son de pago...
Lo probé, y aunque el rendimiento de GPT-5.4 en sí me deja muy satisfecho, a veces no genera una respuesta al mensaje inmediatamente anterior sino a uno más viejo, así que no es del todo estable. Además, también hay reportes de que al usar long context su desempeño en la tarea de needle in the haystack cae por debajo del 50%, así que no diría que lo recomiendo especialmente. Aunque no sé si la tarea de needle in the haystack en sí sea un benchmark adecuado para medir el rendimiento de long-context. En fin, con Codex la compaction no tarda mucho y, después de compactar, tampoco se le suele olvidar bien el contexto, así que al usarlo así nomás no me resultó particularmente incómodo.
Últimamente no dejo de pensarlo, y siento que encaja perfectamente.
Ahora de verdad hay cada vez más software que sale con solo hacer clic, así que parece que el MVP ya se volvió algo anticuado.
La época en la que se conseguía inversión solo con una idea ya terminó, y convertir en código lo que tienes en la cabeza se volvió lo básico, así que
por lo menos hay que llevarlo a un nivel en el que el usuario piense “esto está bastante bien”, y hasta cierto punto entiendo que a eso le llamen MLP.
Profesores Claude, ¿no creen que esto ya va demasiado rápido, humanamente hablando...? snif
Si esta persona ya armó su homelab hasta ese nivel, me daría miedo la factura de luz, ¿no?
Los ingresos de la App Store crecieron, pero aun así es difícil para los desarrolladores ganarse la vida... mmm, ¿de verdad será un análisis acertado? En general, en estas cosas la ventaja del first mover suele ser muy fuerte, así que uno termina usando primero las que tienen más reseñas, ¿no? Sobre todo si son de pago...
Lo probé, y aunque el rendimiento de GPT-5.4 en sí me deja muy satisfecho, a veces no genera una respuesta al mensaje inmediatamente anterior sino a uno más viejo, así que no es del todo estable. Además, también hay reportes de que al usar long context su desempeño en la tarea de needle in the haystack cae por debajo del 50%, así que no diría que lo recomiendo especialmente. Aunque no sé si la tarea de needle in the haystack en sí sea un benchmark adecuado para medir el rendimiento de long-context. En fin, con Codex la compaction no tarda mucho y, después de compactar, tampoco se le suele olvidar bien el contexto, así que al usarlo así nomás no me resultó particularmente incómodo.
Se nota que están trabajando con muchísima emoción.
Últimamente, la velocidad de lanzamientos de Anthropic está de locos.
Mientras mejoran sus herramientas de desarrollo, parece que ya completaron un flywheel que también acelera su propio desarrollo con eso mismo.
Se siente muchísimo ese ambiente de startup que saca algo nuevo todos los días.
Seguro le está metiendo muchísima presión a OpenAI.
¡Shadow Broker! Después de mucho tiempo, me hizo recordar Mass Effect 2. https://masseffect.fandom.com/wiki/Shadow_Broker_(enemy)
Últimamente no dejo de pensarlo, y siento que encaja perfectamente.
Ahora de verdad hay cada vez más software que sale con solo hacer clic, así que parece que el MVP ya se volvió algo anticuado.
La época en la que se conseguía inversión solo con una idea ya terminó, y convertir en código lo que tienes en la cabeza se volvió lo básico, así que
por lo menos hay que llevarlo a un nivel en el que el usuario piense “esto está bastante bien”, y hasta cierto punto entiendo que a eso le llamen MLP.
También dicen que Hacker News incluso estaría pensando en suspender Show porque hay demasiadas publicaciones.
A través de estas cosas, poco a poco habrá más proyectos a los que valga la pena prestar atención.
Supongo que las fuentes coreanas serían muchísimo más difíciles, ¿no?
Viendo los comentarios de Hacker News, me estallé de risa.
"En el primer commit se habían filtrado
./frontend/.env.localy./backend/.envdentro del archivo zip""Por eso se llama OSINT (Open Source Intelligence). Todo está abierto"
Se movió porque no encaja con Show GN.
Por favor, súbelo consultando las instrucciones de uso de Show.
Ah... con razón yo también pensaba que la ventana de contexto era demasiado pequeña, resulta que había que configurarla aparte.
¿La ley del rendimiento acelerado?
Hasta el Bloc de notas de Windows y Apple Notes... ahora todos soportan Markdown.
Gracias a la IA, Markdown está conquistando el mundo.
¿Habrá imaginado John Gruber, quien creó Markdown en 2004, que llegaría un mundo así? jaja
Siempre da pena que no tenga soporte para Windows.
La dirección escucha esto y asiente con la cabeza
Reconoce el problema
Dice que va a reajustar las prioridades
> Aquí es donde me trabo
Me gustan los ThinkPad. El TrackPoint tiene su encanto. Hubo un tiempo en que también usé bastante el teclado de ThinkPad.. T_T
El artículo está bueno.
Últimamente he estado pensando en ideas como "1. Hacer de la desaceleración una estrategia", así que creo que voy a leer un artículo muy oportuno.
Parece que lo sigue haciendo para crear rápido material de clase y lanzar el curso de Eureka Lab antes de que quede desactualizado ;_;
P. D.: hace 7 horas también creó y subió otro más llamado AgentHub 🫢
Visto de forma más clásica, parece que las técnicas clásicas de recuperación de información simplemente se están reutilizando a un nivel más local.