Es un texto con el que me identifico mucho. En la época de la universidad, el único ámbito en el que yo podía ser de ayuda para otras personas era el software. Por suerte, pude convertir eso en mi profesión, y todavía hoy me da una gran satisfacción cuando pude ser de ayuda para mis colegas; creo que después de eso también sigue siendo una gran motivación para mí.
Parece que se escribió pensando solo en escenarios demasiado optimistas, pero ninguna de estas cosas es fácil.
A menudo, para subir apenas 1%, del 90% al 91%, se requiere más esfuerzo y tiempo que para llegar al 90% del objetivo.
A mí me preocupa más que la aparición de una IA poderosa el hecho de que cada vez se refuerce más el fenómeno de que la gente deposita una confianza enorme en resultados de IA en los que no debería confiar.
Incluso aquí, al escribir un comentario corto, hay personas que redactan de una manera en la que no se entiende qué quieren decir, y también hay quienes dicen "se lo pregunté a la IA y me respondió esto", como si eso fuera un hecho.
Volvió a hacer transmisiones, pero cambió su nombre a Hoshino Rina y simplemente mostraba en stream contribuciones independientes de código abierto.
Últimamente estaba trabajando en hacer que una app, o quizás librería, de transmisión llamada Spout2 funcionara bien en Linux.
En lo personal, siento que si solo tienes conocimientos de CS, no hay tanta diferencia.
O quizá sea porque la forma en que lo uso ahora se siente como hacer programación en pareja con un amigo que tiene las manos rapidísimas y te escribe todo el código...
Si existe el esfuerzo de analizar y entender el código que genera, creo que puede estar bien.
Los compiladores son un concepto un poco distinto: como generan ensamblador de forma basada en reglas, están en un dominio determinista, así que una vez que se revisa, el mismo problema no suele volver a aparecer; en cambio, los LLM están en un dominio probabilístico, por lo que siempre existe la posibilidad de que el problema se repita.
Tal vez, si esta precisión probabilística sigue mejorando, pueda acercarse al 100%, pero si los propios requerimientos en lenguaje natural son imprecisos, al final el resultado también será impreciso, así que me da la impresión de que una versión buena del resultado sigue dependiendo de la persona.
Al final, cuando desarrollas a fondo, inevitablemente llega un momento en que necesitas conocer lo que hay dentro de la capa de abstracción.
La brecha entre el prompt en lenguaje natural y el código generado es demasiado grande, así que parece difícil pasar desde el prompt hacia el interior de la capa de abstracción del LLM.
Ahora mismo, lo que hacemos es transmitir al LLM mediante prompts el concepto de la especificación que teníamos en la cabeza, y luego volver a leer el código escrito para validarlo.
Como eso se parece más a revisar código escrito por otra persona, no da la sensación de estar entrando dentro de la abstracción.
Yo ya lo sabía incluso antes de que apareciera este aviso.
Porque ya había recibido una alerta de mi reloj diciendo que sospechaba de hipertensión... TT
Tengo que hacer ejercicio, gente.
Es un texto con el que me identifico mucho. En la época de la universidad, el único ámbito en el que yo podía ser de ayuda para otras personas era el software. Por suerte, pude convertir eso en mi profesión, y todavía hoy me da una gran satisfacción cuando pude ser de ayuda para mis colegas; creo que después de eso también sigue siendo una gran motivación para mí.
Versión del plugin de Claude Code: claude-code/plugins/ralph-wiggum at main · anthropics/claude-code - https://github.com/anthropics/claude-code/…
Liner está en problemas... yo lo estaba usando bien...
El autor sigue aprovechando los LLM de forma limitada en algunas tareas (aprox. 40%)
Por cómo está escrito arriba, no parece que el autor opine que haya que abandonar por completo la IA.
¡Gracias! Lo leeré con atención.
Qué molesto ese título clickbait
Parece que se escribió pensando solo en escenarios demasiado optimistas, pero ninguna de estas cosas es fácil.
A menudo, para subir apenas 1%, del 90% al 91%, se requiere más esfuerzo y tiempo que para llegar al 90% del objetivo.
A mí me preocupa más que la aparición de una IA poderosa el hecho de que cada vez se refuerce más el fenómeno de que la gente deposita una confianza enorme en resultados de IA en los que no debería confiar.
Incluso aquí, al escribir un comentario corto, hay personas que redactan de una manera en la que no se entiende qué quieren decir, y también hay quienes dicen "se lo pregunté a la IA y me respondió esto", como si eso fuera un hecho.
Parece que es momento de seguir pensando en cómo aprovecharlo bien. Creo que desarrollar dejando de lado la IA es ir quedándose atrás poco a poco.
El autor de este artículo ya estaba usando una buena forma de aprovecharla, pero aun así creo que habría que pensar en cómo usar mejor la IA.
(Todavía hay mucho ensayo y error...)
Siento que la acción va a subir aún más.....
Volvió a hacer transmisiones, pero cambió su nombre a Hoshino Rina y simplemente mostraba en stream contribuciones independientes de código abierto.
Últimamente estaba trabajando en hacer que una app, o quizás librería, de transmisión llamada Spout2 funcionara bien en Linux.
Sorprende que haya recibido aunque sea una actualización.
En lo personal, siento que si solo tienes conocimientos de CS, no hay tanta diferencia.
O quizá sea porque la forma en que lo uso ahora se siente como hacer programación en pareja con un amigo que tiene las manos rapidísimas y te escribe todo el código...
Siento que es Claude el que está haciendo el 100% del trabajo, ¿no? ¿Qué onda?
No sé si es un informe o una novela. Hace 10 años, sin duda, habría sido ciencia ficción.
Guau... sí que le dieron soporte durante mucho tiempo.
Si existe el esfuerzo de analizar y entender el código que genera, creo que puede estar bien.
Los compiladores son un concepto un poco distinto: como generan ensamblador de forma basada en reglas, están en un dominio determinista, así que una vez que se revisa, el mismo problema no suele volver a aparecer; en cambio, los LLM están en un dominio probabilístico, por lo que siempre existe la posibilidad de que el problema se repita.
Tal vez, si esta precisión probabilística sigue mejorando, pueda acercarse al 100%, pero si los propios requerimientos en lenguaje natural son imprecisos, al final el resultado también será impreciso, así que me da la impresión de que una versión
buenadel resultado sigue dependiendo de la persona.Al final, cuando desarrollas a fondo, inevitablemente llega un momento en que necesitas conocer lo que hay dentro de la capa de abstracción.
La brecha entre el prompt en lenguaje natural y el código generado es demasiado grande, así que parece difícil pasar desde el prompt hacia el interior de la capa de abstracción del LLM.
Ahora mismo, lo que hacemos es transmitir al LLM mediante prompts el concepto de la especificación que teníamos en la cabeza, y luego volver a leer el código escrito para validarlo.
Como eso se parece más a revisar código escrito por otra persona, no da la sensación de estar entrando dentro de la abstracción.
Dispositivos compatibles
Apple Watch Series 9 y modelos posteriores, o Apple Watch Ultra 2 y modelos posteriores.
Yo ya lo sabía incluso antes de que apareciera este aviso.
Porque ya había recibido una alerta de mi reloj diciendo que sospechaba de hipertensión... TT
Tengo que hacer ejercicio, gente.
Siento que OpenAI todavía no termina de encontrar el rumbo.