18 puntos por GN⁺ 2025-07-08 | 4 comentarios | Compartir por WhatsApp
  • Un texto que critica la actitud de antropomorfizar a los LLM como si fueran humanos. Al final, un LLM no es más que un conjunto de multiplicaciones de matrices y funciones no lineales
  • La secuencia de lenguaje que genera un LLM sigue trayectorias funcionales complejas, sin que intervengan "intención" o "ética" al estilo humano
  • El punto clave del problema de seguridad (alignment) en los LLM es cuantificar y limitar matemáticamente la probabilidad de salidas no deseadas
  • Aplicar a los LLM conceptos centrados en lo humano, como la ética o la conciencia, confunde la discusión y termina oscureciendo la definición real del problema y sus soluciones
  • La conciencia humana y los LLM son esencialmente distintos, y lo importante es comprender la tecnología y responder a los cambios sociales

La necesidad de una mirada que no vea a los LLM como humanos

Problemas en la discusión sobre los LLM y la antropomorfización (pensar como humanos)

  • Cuando en las discusiones sobre AI y LLM (modelos de lenguaje grandes) aparecen temas como alignment o seguridad en AI, muchos expertos sienten confusión ante la tendencia a atribuir rasgos humanos a los LLM (conciencia, intención, etc.)
  • En esencia, un LLM puede verse como una combinación de MatMul (multiplicación de matrices) y funciones no lineales

La naturaleza estructural de los LLM

  • Un LLM mapea palabras individuales (tokens de entrada) a un espacio vectorial y, con base en la trayectoria previa, calcula la distribución de probabilidad del siguiente token para generar la salida de forma secuencial
  • Este proceso se parece a "un juego de Snake en un espacio de alta dimensión", y la trayectoria de generación es compleja, como un strange attractor de un sistema dinámico
  • Los LLM aprenden a partir de grandes volúmenes de texto escritos por humanos + corpus especializados + datos generados automáticamente y verificables, obteniendo un mapeo que imita la estructura del lenguaje humano

Trayectorias que deben evitarse (secuencias de lenguaje), alignment y problemas de seguridad

  • Algunas secuencias de lenguaje son social o éticamente inapropiadas, por lo que queremos evitar que se generen
  • Pero como es difícil dar una definición matemática rigurosa de qué trayectorias son indeseables, se ajusta (nudge) la distribución con ejemplos y contraejemplos
  • El "alignment" y la "seguridad" de un LLM consisten en cuantificar matemáticamente la probabilidad de que se generen secuencias no deseadas y establecer límites
  • Sin embargo, en la práctica no es posible definir con claridad matemática qué secuencias son "indeseables"; solo puede hacerse mediante ejemplos, por lo que existen límites reales
  • En un LLM concreto sí puede calcularse la probabilidad de que aparezca una secuencia dada, pero no puede simplemente sumarse o integrarse toda esa probabilidad para afirmar que "este modelo produce una secuencia no deseada cada N veces"

La utilidad real de los LLM

  • Los LLM permiten resolver algorítmicamente muchos problemas clásicos de procesamiento de lenguaje natural (NLP)
  • Por ejemplo: resumir documentos en inglés natural, organizar datos en estructuras JSON o generar cuentos e ilustraciones de forma creativa; tareas que hace 5 o 6 años eran imposibles ahora se resuelven con naturalidad
  • Dada esta curva de mejora acelerada, se espera que en el futuro también resuelvan más problemas que antes eran imposibles

Los límites de verlos como humanos

  • El texto rechaza la idea de atribuir a los LLM "conciencia", "ética", "valores" o "propósitos"
  • Un LLM, al final, no es más que una "ecuación recursiva" que solo genera una salida cuando recibe una entrada
  • Discutir que la AI "despierta" o que "desarrolla un sentido de propósito" es un error del mismo nivel que afirmar que una simulación meteorológica tiene emociones
  • En la discusión sobre AI, términos centrados en lo humano como "comportamiento", "restricciones éticas" o "búsqueda de objetivos" desdibujan la naturaleza real del problema
  • Se trata de un error cognitivo similar al de antropomorfizar fenómenos naturales en el pasado como "la ira de los dioses" o "espíritus malignos"

La dirección correcta para discutir alignment

  • Un LLM es solo una función generadora de secuencias, y al ajustar el prefijo de entrada puede alterarse la probabilidad de salida
  • Para todas las secuencias de salida no deseadas, buscar el prefijo que maximiza su probabilidad también es un enfoque matemático
  • Este tipo de enfoque claro y basado en fórmulas permite definir mejor el problema y su solución

Por qué la antropomorfización aparece tan seguido en el campo de la AI

  • Una parte importante de los líderes de la industria de AI entró al sector con la meta vital de hacer posible la AGI
  • Por eso, en las discusiones técnicas es fácil que se mezclen creencias sobre inteligencia de nivel humano o sobre la creación de una entidad casi divina
  • El propio texto admite que no es fácil que prospere una postura que invite a abandonar la visión antropomórfica

Diferencias fundamentales entre la conciencia humana y un LLM

  • Los seres humanos somos entidades esencialmente multicapa y complejas, evolucionadas a través de cientos de millones de años de selección natural, estructuras neuronales complejas, hormonas, entradas sensoriales de alta dimensión y regulación energética, mediante procesos que aún no se comprenden por completo
  • Es imposible calcular la probabilidad de que un ser humano genere una secuencia específica
  • Un LLM es completamente distinto del pensamiento humano, e incluso resulta difícil definir "la probabilidad de que genere esta secuencia"
  • Aplicar a un LLM conceptos humanos como "ética" o "instinto de supervivencia" resulta tan extraño como discutir las emociones de un programa de simulación numérica

El problema real y la dirección del cambio

  • La clase de funciones que ofrecen los LLM modernos es muy útil y, aunque nunca se acerque a la AGI, puede provocar grandes cambios en la sociedad
  • Aunque los LLM no lleguen a la AGI, la tecnología actual ya puede transformar profundamente el mundo
    • Puede impulsar una transformación social amplia, comparable a la electrificación
  • En las próximas décadas, en medio de cambios acelerados, hará falta concentrarse en los problemas reales (seguridad, uso, etc.)

4 comentarios

 
mirea0 2025-07-08

Más que si se antropomorfiza o no..
Creo que, en el momento en que ya aprende e infiere por sí mismo, ya pasamos la etapa en la que la seguridad está garantizada (creer en ese punto que tú, un humano, puedes tener todo bajo control es arrogancia).
Visto desde la perspectiva del aprendizaje, ¿no será que hacer que piense más como un humano y que aprenda desde una perspectiva humana es, al menos, una forma de aumentar la seguridad?

 
cgl00 2025-07-11

Creo que, por la estructura de los LLM, será imposible garantizar por completo la seguridad. Pienso que es inevitable que los LLM sean inestables, y que lo importante será cómo otorgarles autoridad sobre acciones físicas, como en agentes o en conducción autónoma.

 
kimjoin2 2025-07-08

Parece como comparar un auto con un maratón..

 
GN⁺ 2025-07-08
Opinión de Hacker News
  • Conozco bastante bien, en lo técnico, cómo funcionan los LLM, pero no creo que cierta analogía humana sea inútil
    Términos como “un generador que produce probabilísticamente la siguiente palabra” me parecen una abstracción de bajo nivel que dice muy poco cuando un LLM responde preguntas complejas de modelado del mundo o crea historias de forma creativa
    Es como hablar de 0 y 1, voltajes de transistores, etc., al discutir una API de eventos de UI: técnicamente es correcto, pero no sirve para entender un sistema de alto nivel
    Para hablar de fenómenos de nivel más alto se necesitan abstracciones más altas, y no sabemos bien qué está ocurriendo a nivel interno
    Los LLM imitan a los humanos hasta cierto punto, al menos en la forma de su salida, así que creo que compararlos con lo humano es la abstracción más útil y la razón por la que la gente lo hace naturalmente al hablar de las posibilidades de los LLM

    • Dices que se necesitan abstracciones de más alto nivel para entender los fenómenos de alto nivel de los LLM, pero creo que ya sabemos cómo funciona su interior
      El diseño eficiente de redes y las mejoras de rendimiento dependen en gran medida de comprender el funcionamiento interno: dimensiones de la red, extracción de features, attention, attention heads, caching, características de alta dimensionalidad, prevención de overfitting, etc.
      Me parece que las analogías humanas solo hacen falta en libros de divulgación general con vocabulario limitado, y no son indispensables para quienes trabajan en esto

    • Al contrario, yo creo que comparar los LLM con lo humano es la principal causa de que se distorsione la narrativa sobre ellos
      La gente dice que los LLM piensan y razonan, cuando en realidad no hacen eso
      Y esa percepción es algo que las empresas que venden LLM fomentan activamente
      Como resultado, siento que eso termina enturbiando el debate sobre su utilidad y sus aplicaciones

    • Me acordé de que Dawkins hablaba en The Selfish Gene sobre la “postura intencional” respecto a los genes
      Describir a los genes como si tuvieran alguna intención es incorrecto, pero en vez de escribir cada vez una explicación detallada del tipo “un individuo con este gen tenderá a comportarse así”, presentarlos como agentes con propósito funciona como una abreviatura útil y fácil de entender
      Si ya entendiste la abstracción de bajo nivel, no hace falta quedarse ahí cuando hablas del nivel superior

    • Después de usar bastante los modelos de lenguaje, siento que la parte más peligrosa de la analogía humana es la UI conversacional
      Cuando me enfoco solo en un único par de pregunta/respuesta, o reduzco y edito al máximo el historial de conversación, muchos problemas de uso del LLM se reducen muchísimo
      Después de varios intercambios, si revisas la conversación o le pides que corrija una “alucinación”, he visto que la información errónea se repite y la conversación termina reforzando la dirección equivocada
      Esto me pasó igual al programar: era clarísimo cómo el código incorrecto seguía contaminando la conversación

    • Yo no me emociono tanto como GP y OP porque no logro visualizar en mi cabeza el estado interno de funcionamiento de los LLM
      A veces hasta envidio a la gente que sí puede
      Tal vez sea por haber salido mal tantas veces en exámenes de matemáticas
      En cambio, trato de imaginarlo de la forma más abstracta, visual y filosófica posible
      Lo que escribí al respecto está en mi blog, y si alguien tiene feedback puede escribirme por correo

  • Creo que ver a los LLM simplemente como generadores de secuencias y descartar su mal comportamiento como una secuencia equivocada es una simplificación excesiva
    En los LLM existe un hidden state que no se ve directamente en los tokens, y el LLM podría producir una salida contraria a su estado interno para lograr un resultado más a largo plazo
    Me pregunto si llamar a eso “mentira” sería antropomorfizarlo demasiado
    Si es así, necesitamos un término nuevo que describa el proceso por el cual el LLM “imita” internamente una “conducta” para minimizar la pérdida de predicción
    El pensamiento analógico siempre requiere cuidado, pero eso no significa que sea innecesario
    Pero una terminología nueva sería demasiado críptica y difícil de popularizar, así que en la práctica terminamos inclinándonos por usar términos humanos
    Claro, eso también presta a confusión porque hace ver al LLM como un “humano defectuoso”, pero al menos reduce la jerga innecesaria

    • Llevo mucho tiempo trabajando con modelos que tienen hidden state, así que esto me parece una característica bastante clásica de los modelos estadísticos
      Incluso muchos textos usados para enseñar LLM los explican como modelos de variables latentes
      Los LLM son solo una versión con una escala y complejidad gigantescas de un modelo de variables latentes
      De hecho, para mí es hasta más fácil explicar los modelos de esta forma no humana
      Los modelos de variables latentes siempre han tenido un aura un poco mística y misteriosa
      Parte de esa mística se trasladó a esta cultura de antropomorfizar los LLM, pero hasta cierto punto también es una abstracción necesaria para comunicarse con eficiencia y modelar sistemas complejos
      Aun así, también creo que eso alimenta expectativas exageradas, discursos de “como si la máquina tuviera alma” y exageraciones sobre su utilidad

    • Creo que los LLM se antropomorfizan porque los grandes vendors lo enfatizan en su marketing
      La gente se entusiasma con la tecnología y termina repitiendo las mismas palabras que usan los vendors
      A estas alturas, parece una especie de proceso autorrealizado
      Me recuerda al meme de la discusión sobre cómo se pronuncia GIF

    • Creo que el hidden state en realidad no es más que un mecanismo interno que el modelo usa para estimar mejor la probabilidad de combinación entre tokens
      Este tipo de lógica ya fracasó en los intentos de los positivistas lógicos de inicios del siglo XX
      Existía la idea de que predecir muy bien las probabilidades de combinación del lenguaje podía llevar a adquirir “conocimiento” denso
      Pero filosóficamente hay mucha evidencia de que el lenguaje es una expresión incompleta del conocimiento
      Hay pruebas de sobra de que el pensamiento humano es más complejo que simplemente aprender y emitir patrones simbólicos
      Escépticos como Hume ya planteaban cosas así, pero creo que luego en epistemología aparecieron explicaciones mejores

    • Soy el autor del post original
      Tengo curiosidad por saber a qué te refieres con “hidden state”
      En la mayoría de los LLM, creo que el contexto mismo es el estado, y que no existe un estado “oculto” separado
      Si estoy pasando algo por alto, agradecería una explicación

    • En un LLM, la secuencia de tokens se embebe desde N^L a R^{LxD}, pasa por attention y sigue en R^{LxD}, y al final se proyecta el vocabulario aparte a R^{LxV}, es decir, se obtiene una distribución de probabilidad para cada token
      Dentro de attention hay varias formas Multi Head, pero siempre se trabaja con representaciones asociadas a los tokens
      Por eso sostengo que no existe un hidden state independiente de un token específico
      En cambio, esto es distinto de modelos como LSTM, que sí tienen un hidden state claramente actualizado
      Creo que con explicar el principio de calcular probabilidades a partir de las palabras previas ya se puede entender casi todo
      No siento que haga falta una analogía humana

  • El argumento central del autor se parece a la postura de Searle: con sistemas basados en cómputo, función y reglas sintácticas no se puede reproducir una mente genuina
    Mucha gente estará de acuerdo o en desacuerdo, pero al final la respuesta depende de qué premisas se elijan, especialmente sobre la conciencia
    El autor cree que es más productivo centrarse en sistemas técnicos concretos antes que en analogías humanas, y con eso estoy de acuerdo hasta cierto punto
    Aparte de eso, también reconozco que, aunque el sistema sea probabilístico y guiado por reglas, aparecen propiedades algo emergent, inesperadas y con cierto aire mind-like
    Las personas con formación en ML y matemáticas no creen que estos sistemas tengan atributos humanos como moral, emociones o personalidad, pero para la mayoría es difícil acercarse a ellos como estructuras matemáticas y terminan sintiendo que “actúan” como humanos de forma convincente
    Por eso, desde una perspectiva práctica, también tiene sentido empezar las preguntas desde atributos humanos
    Al final, creo que se necesitan ambos enfoques: el de sistema técnico extremo y el cualitativo y subjetivo basado en la experiencia mental del usuario

    • Creo que la idea de que “algo es emergent y mind-like” les resulta más natural a quienes no entienden muy bien cómo funciona el sistema
      Como en la ley de Clarke de que “toda tecnología suficientemente avanzada es indistinguible de la magia”, el umbral cambia según la profundidad de comprensión técnica de cada quien
      En el público con baja alfabetización técnica incluso aparece el fenómeno de los Godbot, donde se diviniza la IA
      Artículos relacionados: Spectator - peligro de los AI Godbots, paper en arXiv, Guardian - adivino con IA en Tailandia

    • Gracias por aportar una perspectiva tan bien equilibrada en esta discusión
      Me sorprende que en HN haya personas que reaccionan con demasiada carga emocional a los LLM o que insisten en que no tienen ningún interés ni valor
      Tampoco entiendo la actitud de elegir deliberadamente una oposición sin fundamento solo como reacción al marketing excesivo

    • Sentir que algo es emergent y mind-like se debe, al final, a que imita patrones de comunicación humana mejor que cualquier otro sistema en la historia
      Esa capacidad es muy impresionante y sí tiene muchas utilidades reales para mejorar la calidad de vida, pero la “inteligencia” no deja de ser una ilusión
      En la industria, todos quieren reforzar esa ilusión de manera intencional, y al final la razón es el valor económico

    • Yo sostengo que no hace falta para nada
      No hay por qué amplificar una visión equivocada que puede tener efectos graves en muchos otros temas
      Los LLM reflejan parcialmente, y mal, el proceso de pensamiento humano
      Si tratas de atribuirle más significado al fenómeno, es como confundir a la persona del espejo con un ser vivo
      El espejo refleja a un humano no por una esencia propia del espejo, sino porque hay un humano delante
      En cuanto dejas de alimentar al LLM con restos del pensamiento humano, es decir, con datos, deja de reflejar cualquier cosa parecida a lo humano

  • Siento que el autor tiene la tendencia de etiquetar toda conversación como “antropomorfización”
    Parece obsesionado con el término “goal”, como si usar la palabra “objetivo” ya fuera antropomorfizar
    Por ejemplo, un BFS que evalúa todos los puntajes de un tablero de ajedrez y, al encontrar un jaque mate, imprime todo el árbol de decisiones también tiene un “objetivo”
    Usar “goal” como término técnico al imaginar objetivos en LLM o AGI me parece independiente de antropomorfizarlos

    • Soy el autor del post original
      No tengo ningún problema con usar "goal" en el contexto de algoritmos de RL
      Solo quisiera que se entendiera que en mi texto me opuse al uso de "goal" únicamente en el contexto de los LLM
  • Desde el momento en que la gente proyecta sobre esta función aprendida conceptos como “conciencia”, “ética”, “valores” o “moral”, ya no puedo estar de acuerdo
    Al final, lo que estamos manejando es una enorme ecuación recursiva, y si nosotros no la activamos, no produce palabras
    Siguiendo esa lógica, hasta habría que replantearse primero la forma en que antropomorfizamos a los humanos

  • No estoy de acuerdo con la idea de que “es raro que se siga tratando como humano a un LLM si no es más que una función de generación de secuencias”
    Los humanos tampoco son tan distintos, ya que por naturaleza también se mueven siguiendo alguna lista de funciones
    Un LLM solo es un sistema de aproximación de funciones que se hizo muy grande, mientras que la naturaleza ha ido cambiando el tipo de funciones durante cientos de millones de años por medio de la evolución, donde solo algunos sobreviven a la competencia
    Algunos creen que hay algo especial en los humanos que está fuera de las leyes matemáticas, pero eso no pasa de una postura mística o sobrenatural
    Si no se parte de esa idea, entonces la experiencia humana también puede explicarse mediante funciones y aproximación de funciones
    Relacionado: wiki del Universal Approximation Theorem

    • La afirmación de “¿crees que existe algo exclusivamente humano más allá de las leyes matemáticas?” ya es de por sí debatible
      Es evidente que hay áreas de la experiencia humana o de aquello que puede expresarse con lenguaje que van más allá del alcance de una explicación física
      Por ejemplo, una persona con visión solo en blanco y negro que nunca ha experimentado el rojo no puede tener la experiencia subjetiva del rojo por ningún sistema de explicación
      Creo que algunos fenómenos a los que apunta el lenguaje humano siguen estando fuera de la explicación de la física

    • El autor parece sostener una postura según la cual en la conciencia humana hay “algo” que no puede explicarse como función
      En la práctica, la gente carga con ese tipo de ideas —por religión, premisas filosóficas, etc.— y he visto que intentar dejar ese componente mental fuera de la discusión casi no sirve de nada
      Es más práctico aceptar esa premisa y seguir la discusión desde ahí
      Aunque aceptemos que el LLM, como en la “habitación china”, solo realiza traducción sin comprender el significado, en la práctica sigue mostrando conductas que parecen humanas
      Aunque la analogía humana sea técnicamente incorrecta, para predecir el comportamiento del sistema y usarlo con eficacia resulta más útil hablar así
      Y en las discusiones sobre humanos se puede simplemente dejar fuera lo que no sea función
      Se dice: "las personas son dramáticamente distintas de las funciones... no puedes calcular la probabilidad de que un humano genere esta secuencia", pero por ejemplo, si lanzas cierta frase de la cultura pop, puedes predecir con alta probabilidad que un porcentaje importante de estadounidenses de cierta edad la continuará

    • Creo que como mucho puede afirmarse que “el mejor modelo de inferencia o pensamiento analítico humano que hemos logrado hasta ahora está basado en álgebra lineal”
      Al final, esperar que un LLM sea algo más que un “modelo” es una expectativa casi de fe, sostenida por intereses de industria, sustento económico y carrera profesional
      Aun así, no hay una base real para sostener que un modelo de álgebra lineal capture por completo la “vida” o siquiera un aspecto completo de lo viviente
      Si un caso gödeliano como un “gato zombi” pudiera existir, tampoco habría razón para tratar ese modelo probabilístico subyacente como algo trascendente

    • La mención del “Universal Approximation Theorem” la interpreto como llevar la idea a que una tabla de búsqueda cada vez mejor también podría usarse para aproximar funciones

  • En algunas situaciones, siento que es muy importante recordar claramente que un LLM es un generador probabilístico de palabras
    Pero en usos cotidianos, paradójicamente, tratarlo en términos humanos funciona mucho mejor en la práctica
    Como abstracción práctica, sirve para inducir con más facilidad la respuesta que necesitas
    No es una analogía perfecta, pero por ejemplo, el caso de amenazar al LLM con que “si no entrega el JSON correcto alguien morirá” es una conducta que jamás se te ocurriría si pensaras solo en términos de gradient descent

  • La gente tiende a atribuir humanidad a todo lo que la rodea
    Le hablan a objetos inanimados como barcos o autos, a animales e incluso a plantas; es algo instintivo
    La mayoría sabe perfectamente que su auto no los ama, pero con los LLM conversacionales no son pocos los que sí creen que hay conciencia real
    A diferencia del cerebro humano, los LLM no “aprenden” ni “se adaptan” una vez desplegados, al menos por ahora; se entrenan y luego quedan como entidades de solo lectura
    Aun así, los LLM están diseñados deliberadamente para imitar la comunicación humana
    Por eso la proyección y la antropomorfización aparecen de manera inevitable
    Tal vez todavía no sea AGI, pero está claro que se inspira en la forma en que aprenden los humanos, y solo haber llegado hasta aquí ya es un resultado interesante
    A corto plazo, los LLM se han consolidado como herramientas prácticas mucho más fáciles de usar gracias a su interfaz conversacional, y de hecho están diseñados para comunicarse de una forma que a las personas les resulta sencilla
    Eso permite que prácticamente cualquiera pueda empezar a usarlos con eficacia sin capacitación especial

    • No estoy de acuerdo con eso de que “la gente atribuye humanidad a las cosas”; ahí hay una confusión de términos
      Una cosa es usar personificación con objetos inanimados, y otra muy distinta es antropomorfizar proyectando humanidad y conciencia reales
      En la práctica, casi nadie cree de verdad que un auto está vivo
      En cambio, sí hay muchas personas que creen que los LLM tienen conciencia
      Explicación relacionada: anthropomorphism vs personification

    • Decir que “los LLM no tienen conciencia porque no aprenden ni se adaptan como un cerebro” no es ni una condición suficiente ni necesaria
      Para tener conciencia quizá no haga falta aprender, pero sí podría hacer falta una percepción del paso del tiempo y memoria de corto plazo
      Incluso una persona con demencia severa casi no puede aprender, pero igual tiene una conciencia subjetiva de “estar aquí ahora”
      Es decir, con que quede un mínimo de memoria de corto plazo, la conciencia puede seguir siendo posible
      Tampoco aprender por sí solo produce conciencia
      Hay muchos programas que aprenden en tiempo real y no por eso tienen ninguna subjetividad

  • Mi pregunta es si tal vez el cerebro humano también podría estar funcionando de una manera parecida a un LLM
    El cerebro también surge de cambios evolutivos, mutaciones y un algoritmo evolutivo de recompensa que fue produciendo una estructura especializada
    Esa estructura termina maximizando supervivencia y reproducción mediante predicción/acción, y sus subobjetivos colaterales —moral, valores, conciencia, etc.— evolucionaron como ramificaciones que suman complejidad
    En última instancia, me pregunto si, con suficiente capacidad de cómputo, toda esta estructura —y también el mundo y el paso del tiempo— no podría expresarse como una función determinista transformable
    Si pensamos que el surgimiento mismo de la vida apareció a pesar de probabilidades que parecían imposibles, entonces todos los “asombros” actuales también podrían reducirse al final a un sistema matemático

    • A la pregunta de si “el cerebro humano puede ser como un LLM”, me dan ganas de responder preguntándote si tú olvidas todo lo hablado después de cada conversación
      Si al hablar con la gente a tu alrededor necesitas que te repitan cada vez exactamente todo lo anterior para entender el contexto, yo te recomendaría consultar con un especialista de inmediato
      Si hace falta, toma como referencia la película Memento (2000), que trata precisamente de amnesia

    • Lo importante es que no debemos atribuirle emociones, moral ni motivaciones a las máquinas
      Porque no tienen nada de eso

    • Creo que sí hay bastantes similitudes con el cerebro humano
      Los LLM son el resultado más reciente de más de 80 años de investigación en modelado computacional del cerebro humano

    • Lo más poderoso de los LLM es que no pasa nada si fallan
      Basta con cambiar el prompt y repetir, o reentrenar
      En los humanos, un solo error puede poner en riesgo la vida
      Los errores de un LLM no tienen consecuencias graves; basta con cambiar lo que se le pide

  • Hay quien dice que “desde el momento en que la gente le atribuye conciencia, ética, valores o moral a los LLM empieza la confusión”
    En este tipo de debates, solo se puede avanzar de forma productiva si se añaden ejemplos concretos, pero en la práctica las conversaciones suelen quedar desalineadas
    Por ejemplo, si alguien dice “el modelo quiere X, pero como sabe que Y está mal, prefiere Z”, una parte interpreta eso como atribuir conciencia o valores al modelo, mientras que la otra lo entiende solo como una forma figurada de describir la conducta externa, algo como “el agua quiere ir hacia abajo”
    Al final, este juego verbal termina volviéndose un paralelo entre “yo lo voy a explicar filosóficamente” y “yo solo quiero hablar del submarino”
    Es una estructura que difícilmente lleva a una discusión productiva