18 puntos por kciter1 24 일 전 | 17 comentarios | Compartir por WhatsApp
  • Con el rápido avance de la IA, cada vez hay más desarrolladores que sienten una depresión psicológica derivada de ver su especialización reemplazada
  • A medida que aumentó la cantidad de desarrolladores que sienten este desánimo, empezó a llamársele Claude Blue
  • Además, los neologismos que aparecen cada día están intensificando el FOMO y la ansiedad de los desarrolladores
  • La clave para superar el miedo está en entender
  • La enorme cantidad de supuestas formas de "ingeniería" no son más que variaciones de "enviar la entrada adecuada a una API y procesar la respuesta", algo que los desarrolladores ya venían haciendo muy bien
  • En lugar de dejarte arrastrar por el contenido que provoca FOMO, si entiendes la esencia, incluso cuando aparezcan nuevos términos podrás incorporarlos a tu marco de conocimiento y juzgarlos con calma

La estructura del miedo y cómo superarlo

  • Las personas sienten miedo ante lo desconocido. El temor a la IA también proviene menos de la IA en sí que del hecho de "no saber cómo funciona"
  • Cuando entiendes su naturaleza, la magia empieza a verse como tecnología, y la tecnología es algo que puede aprenderse y que tiene límites
  • También hay resultados de encuestas que indican que el 24% de los trabajadores ha visto empeorar su salud mental por la sobrecarga de información causada por la IA

Qué es en realidad un LLM

  • Un LLM es un modelo de predicción de la siguiente palabra que "genera la salida más adecuada para una entrada dada"
  • ChatGPT, Claude y Gemini funcionan todos con el mismo principio, y la realidad del servicio es una llamada HTTP API en la que el cliente envía mensajes y el modelo devuelve tokens en streaming
  • Incluso la potente capacidad de programación de los agentes de IA está envuelta alrededor de esa llamada a la API

Cómo los agentes de IA se volvieron más inteligentes

  • Prompt engineering: asignar roles, Few-Shot, Chain-of-Thought, etc., no son más que formas de hacer más específico el contexto del texto de entrada para guiar la dirección de la salida
  • Control del formato de salida: con JSON Schema, Function Calling y similares, la salida del modelo se convierte en una estructura que el programa puede parsear. A través de Function Calling es posible una estructura en la que el modelo llama herramientas y el runtime las ejecuta. MCP y RAG también son una forma de invocación de herramientas
  • Context engineering: no se trata de cómo preguntar, sino de diseñar qué verá el modelo antes de razonar. Como al alargarse la entrada baja la concentración, la clave es colocar la información adecuada en el lugar adecuado
  • División de prompts: en vez de un único prompt gigantesco, dividir el trabajo en varios prompts pequeños y enfocados. Sub-Agent (subagente) y Skill (habilidad) entran en esta categoría
  • Harness engineering: diseñar todo el entorno de ejecución que rodea al modelo. Se compone de guías (orientación antes de actuar) y sensores (validación de resultados después de actuar)
    • Ralph loop: técnica que vuelve a inyectar el mismo prompt cuando no se cumplen los criterios de finalización. El progreso se guarda en el sistema de archivos y en git para poder continuar incluso en un contexto nuevo cada vez. Es solo una de las estrategias subordinadas del harness, no el mismo concepto de harness

Salir del FOMO

  • Incluso con conocimiento, seguimos ansiosos porque los generadores de FOMO hacen que sintamos como si no supiéramos nada
  • Una buena forma de no caer en FOMO es revisar qué resolvieron realmente quienes lo provocan
    • En la mayoría de los casos, solo comprimieron el proceso, no resolvieron el problema
  • Si entiendes la esencia, cuando te encuentres con nueva información podrás juzgar por ti mismo si se trata de un nuevo paradigma, una variación de un concepto existente o una exageración

Qué hacer de aquí en adelante

  • No necesariamente tienes que hacer algo. Si la IA no ayuda a tus problemas, puedes seguir viviendo como hasta ahora. Al final no es más que una herramienta: si la necesitas, la usas; si no, no pasa nada
  • No todo tiene una respuesta correcta. Por eso no hace falta esforzarse por encontrar una hoja de respuestas.
  • Si tienes conocimiento, aunque aparezcan nuevos términos en el futuro, desarrollarás la capacidad de identificar de qué se está hablando

17 comentarios

 
pjs102793 23 일 전

Una buena forma de no sentir FOMO es fijarse en qué han resuelto realmente con IA quienes lo provocan.

La verdad, esto me identifica muchísimo jajaja

 
bluekai17 17 일 전

"Si la IA no ayuda con mi problema, entonces puedo seguir viviendo como lo venía haciendo hasta ahora. Al final no es más que una herramienta, y si la necesito la uso, y si no la necesito, simplemente no la uso". No es tan fácil, ¿eh? T_T

 
limhasic 23 일 전

Jeje, ¿y ahora qué hago?

 
savvykang 23 일 전

¿No es cierto que no se puede reemplazar toda la especialización? Incluso el proceso mismo de acuñar el término es extraño.

 
kciter1 23 일 전

Nunca se afirmó en el texto original que la IA pueda reemplazar por completo toda la experiencia profesional. Yo tampoco lo creo así...

 
brainer 24 일 전

> Un LLM es un modelo de predicción de la siguiente palabra que "genera la salida más adecuada para una entrada dada"

Está hablando de GPT-3.

 
jmg008 23 일 전

Pensaba que, salvo algunos modelos que usan modelos de difusión, todos los modelos de lenguaje grandes disponibles en el mercado después de GPT funcionaban prediciendo el siguiente token. Si hay modelos que funcionen de otra manera, agradecería que me lo hicieran saber.

 
kciter1 24 일 전

Entonces, ¿el modelo más reciente sería distinto? Si hay algo incorrecto, les agradecería que me lo hicieran saber; creo que sería de ayuda tanto para mí como para los demás, jaja.

 
brainer 23 일 전

Si vas a reducir a los LLM modernos a "predicción de la siguiente palabra", entonces AlphaGo también sería nada más que "predicción de la siguiente jugada".

Desde ChatGPT, predecir la siguiente palabra no pasa de ser solo preentrenamiento.

En cambio, Claude es un modelo que logra objetivos.

 
cafedead 23 일 전

¿No es que AlphaGo también predice la siguiente jugada calculada con la mayor probabilidad de victoria?????

 
cafedead 23 일 전

Qué confuso. ¿Es una broma o salió alguna técnica o tecnología nueva que yo no conozco??

 
brainer 23 일 전

La clave es el "porcentaje de victorias".
Simplemente con la predicción de la siguiente palabra no se puede ni siquiera escribir frases útiles, mucho menos programar o hacer matemáticas correctamente.
Este tipo de técnica apareció en los años 60 o 70.

(Estrictamente hablando, ni siquiera son palabras)

 
kciter1 23 일 전

Mmm... quizá ahora pienso que el texto se transmitió de una forma distinta a la que yo pretendía. Si este texto dio la impresión de que estaba menospreciando el valor técnico de los LLM, les ofrezco una disculpa.

Dicho eso, la intención de este texto era quitar el empaque exagerado y la mistificación para verlo con frialdad. Por eso, en lo personal, siento que expresarlo como un "modelo que alcanza objetivos" le da un tono de mistificación. Al final, tanto el software convencional como un modelo existen también para alcanzar algún "objetivo".

Por eso, sumando mi curiosidad personal, me gustaría volver a preguntar si la expresión que mencionó es técnicamente más precisa.

 
h0422ys 23 일 전

gpt 3: predicción de la siguiente palabra -> correcto
después de gpt 3, los modelos basados en transformadores: predicción de la siguiente palabra -> correcto.
AlphaGo, AlphaZero, MuZero, ...: predicción de la siguiente jugada -> correcto.
Modelo que logra un objetivo (específico) -> correcto.

No hay nada incorrecto en lo que dices

 
rlaaudgjs5638 23 일 전

Parece que algo de eso hay.
Pero al final el modelo en sí no es más que una función de entrada y salida.
Bajo la suposición de que se le da el arnés adecuado y un bucle de agente, parece válido decir que el modelo logra alcanzar el objetivo.

 
blacksocks 23 일 전

¿Se puede resumir como que “predicción del siguiente token” es precisa como explicación a nivel de implementación, pero incompleta como forma de explicar las capacidades o el propósito del modelo?

 
ng0301 23 일 전

Entonces, parece que podríamos encontrar un punto medio con un modelo que prediga mejor 😄