¿Qué parte le parece tan absurda?

 

Uf... no tiene sentido esa lógica de que un LLM me roba mis datos personales...

 

Solía usarlo mucho para compartir timelapses que tomaba en reuniones de juegos de mesa.
Últimamente, como Galaxy y Pixel comparten AirDrop entre sí, su utilidad quedó un poco ambigua.
Claro, para enviar cosas a una desktop, todavía está muy bien.

 
xguru 1 일 전 | comentario padre | en: Ghostty deja GitHub (mitchellh.com)

Mitchell Hashimoto escribió incluso en un comentario de HN que realmente se le salieron las lágrimas al verlo.
https://x.com/mitchellh/status/2049213597419774026
Dice que se registró en febrero de 2008 como el usuario número 1299 de GitHub.

Parece que últimamente GitHub sí ha estado teniendo muchos problemas. Hace unas horas también publicaron GitHub está presentando una caída en este momento.

 

Lo instalé en Windows para echarle un vistazo.

  1. En la lista de selección de modelos no hay LLM locales como ollama.
  2. En la explicación de Warp dice que las conversaciones en lenguaje natural deben ingresarse en "inglés", así que no sé si eso significa que no tiene una función de traducción automática para coreano.
 

Aunque se aplique este tipo de cosas, al ver la programación real parece que no ayuda mucho en la práctica... supongo que es porque es desarrollo con un nivel de dificultad como para dejar un plan en codex y poner a correr al agente jaja

 

Hace un año recomendaba muchísimo Claude, pero últimamente recomiendo muchísimo la app de Codex.

 
botplaysdice 1 일 전 | comentario padre | en: Cómo contratar a personas mejores que tú (longform.asmartbear.com)

De verdad, en Corea contratar parece ser uno de los problemas más difíciles. Si eliges mal, ni siquiera puedes despedir a la persona... (por lo que sé, hay muchos fundadores que terminan demandados por este tema;;;). Incluso en startups que deberían ser agresivas, al final terminan en una situación donde tienen que tomar la opción segura.

 

En Cómo operar varias empresas con $10K de ingresos mensuales con un stack de $20 al mes
parece que era posible esto:
'El truco clave de Copilot: Microsoft cobra por solicitud, no por token, y una "solicitud" es cada cosa que escribes en el cuadro de chat. Incluso si el agente analiza toda la base de código durante 30 minutos y modifica cientos de archivos, solo cuesta alrededor de 0.04 dólares'
...así que ahora ya lo bloquearon, supongo..

 

Lo único bueno era que era barato y todo lo demás eran puras desventajas, así que parece que ya no hay razón para usarlo.

 

Yo también estaba metiéndole de todo, parecido a lo que dice Osmani,
mientras hacía una app salió este tema y por eso me apresuré un poco,
pero siento que habría sido mejor si Osmani no se hubiera quedado solo en palabras
y hubiera puesto lo que decía en Google Anti-Gravity.
Lo mismo con Kaparthy; eso de ya ni pensar en construir nada y solo aventar un texto por ahí... ¡qué sé yo!

https://github.com/hang-in/tunaFlow

 

Resumen en 3 líneas

  • El sistema (arnés) importa más que el modelo: el rendimiento de la IA no depende tanto del modelo en sí, como GPT o Claude, sino del diseño del entorno de trabajo que lo rodea, llamado "arnés", incluyendo prompts, herramientas, sandbox y bucles de retroalimentación
  • El principio de "ratchet": los errores no deben tratarse como incidentes aislados, sino reflejarse de inmediato en documentos de reglas (como AGENTS.md) o hooks, para que el sistema se vuelva más robusto con el tiempo
  • No es culpa del modelo, sino de la configuración (skill): cuando una IA no rinde bien, muchas veces se debe más a un mal diseño del arnés que a una falta de inteligencia del modelo, y es indispensable un enfoque de ingeniería que diseñe en reversa los componentes y restricciones necesarios a partir del resultado deseado
 

Lo tomaré como referencia. Gracias.

 

Antes, aunque dejaba claramente escrito en el prompt que hiciera A, con cierta probabilidad seguía sin respetarlo, así que probé de todo: resaltarlo en negritas de Markdown, escribirlo dos veces, ponerlo en inglés, redactarlo con una estructura circular, escribirlo en XML... pero igual, con cierta probabilidad, seguía ignorando el prompt...

 

Pero cuando en el prompt le dices que haga A y que no haga B, si de verdad lo entiende muy bien, siento que este enfoque podría ser válido, pero si cumple el prompt de forma probabilística según el estado del servidor de IA, ¿este enfoque seguiría siendo válido?

 

¿27 veces? Qué fuerte

 

Creen que si le bajan el rendimiento con un parche silencioso nadie se va a dar cuenta, pero la verdad es que la intuición de la gente es más aguda de lo que parece, así que si junto mi intuición con lo que comenta la gente de la comunidad, la respuesta sale de inmediato.

"Entonces, ¿y tú qué puedes hacer? jajaja"; al final no queda de otra más que usarlo....