- Un texto que critica la actitud de antropomorfizar a los LLM como si fueran humanos. Al final, un LLM no es más que un conjunto de multiplicaciones de matrices y funciones no lineales
- La secuencia de lenguaje que genera un LLM sigue trayectorias funcionales complejas, sin que intervengan "intención" o "ética" al estilo humano
- El punto clave del problema de seguridad (alignment) en los LLM es cuantificar y limitar matemáticamente la probabilidad de salidas no deseadas
- Aplicar a los LLM conceptos centrados en lo humano, como la ética o la conciencia, confunde la discusión y termina oscureciendo la definición real del problema y sus soluciones
- La conciencia humana y los LLM son esencialmente distintos, y lo importante es comprender la tecnología y responder a los cambios sociales
La necesidad de una mirada que no vea a los LLM como humanos
Problemas en la discusión sobre los LLM y la antropomorfización (pensar como humanos)
- Cuando en las discusiones sobre AI y LLM (modelos de lenguaje grandes) aparecen temas como alignment o seguridad en AI, muchos expertos sienten confusión ante la tendencia a atribuir rasgos humanos a los LLM (conciencia, intención, etc.)
- En esencia, un LLM puede verse como una combinación de MatMul (multiplicación de matrices) y funciones no lineales
La naturaleza estructural de los LLM
- Un LLM mapea palabras individuales (tokens de entrada) a un espacio vectorial y, con base en la trayectoria previa, calcula la distribución de probabilidad del siguiente token para generar la salida de forma secuencial
- Este proceso se parece a "un juego de Snake en un espacio de alta dimensión", y la trayectoria de generación es compleja, como un strange attractor de un sistema dinámico
- Los LLM aprenden a partir de grandes volúmenes de texto escritos por humanos + corpus especializados + datos generados automáticamente y verificables, obteniendo un mapeo que imita la estructura del lenguaje humano
Trayectorias que deben evitarse (secuencias de lenguaje), alignment y problemas de seguridad
- Algunas secuencias de lenguaje son social o éticamente inapropiadas, por lo que queremos evitar que se generen
- Pero como es difícil dar una definición matemática rigurosa de qué trayectorias son indeseables, se ajusta (nudge) la distribución con ejemplos y contraejemplos
- El "alignment" y la "seguridad" de un LLM consisten en cuantificar matemáticamente la probabilidad de que se generen secuencias no deseadas y establecer límites
- Sin embargo, en la práctica no es posible definir con claridad matemática qué secuencias son "indeseables"; solo puede hacerse mediante ejemplos, por lo que existen límites reales
- En un LLM concreto sí puede calcularse la probabilidad de que aparezca una secuencia dada, pero no puede simplemente sumarse o integrarse toda esa probabilidad para afirmar que "este modelo produce una secuencia no deseada cada N veces"
La utilidad real de los LLM
- Los LLM permiten resolver algorítmicamente muchos problemas clásicos de procesamiento de lenguaje natural (NLP)
- Por ejemplo: resumir documentos en inglés natural, organizar datos en estructuras JSON o generar cuentos e ilustraciones de forma creativa; tareas que hace 5 o 6 años eran imposibles ahora se resuelven con naturalidad
- Dada esta curva de mejora acelerada, se espera que en el futuro también resuelvan más problemas que antes eran imposibles
Los límites de verlos como humanos
- El texto rechaza la idea de atribuir a los LLM "conciencia", "ética", "valores" o "propósitos"
- Un LLM, al final, no es más que una "ecuación recursiva" que solo genera una salida cuando recibe una entrada
- Discutir que la AI "despierta" o que "desarrolla un sentido de propósito" es un error del mismo nivel que afirmar que una simulación meteorológica tiene emociones
- En la discusión sobre AI, términos centrados en lo humano como "comportamiento", "restricciones éticas" o "búsqueda de objetivos" desdibujan la naturaleza real del problema
- Se trata de un error cognitivo similar al de antropomorfizar fenómenos naturales en el pasado como "la ira de los dioses" o "espíritus malignos"
La dirección correcta para discutir alignment
- Un LLM es solo una función generadora de secuencias, y al ajustar el prefijo de entrada puede alterarse la probabilidad de salida
- Para todas las secuencias de salida no deseadas, buscar el prefijo que maximiza su probabilidad también es un enfoque matemático
- Este tipo de enfoque claro y basado en fórmulas permite definir mejor el problema y su solución
Por qué la antropomorfización aparece tan seguido en el campo de la AI
- Una parte importante de los líderes de la industria de AI entró al sector con la meta vital de hacer posible la AGI
- Por eso, en las discusiones técnicas es fácil que se mezclen creencias sobre inteligencia de nivel humano o sobre la creación de una entidad casi divina
- El propio texto admite que no es fácil que prospere una postura que invite a abandonar la visión antropomórfica
Diferencias fundamentales entre la conciencia humana y un LLM
- Los seres humanos somos entidades esencialmente multicapa y complejas, evolucionadas a través de cientos de millones de años de selección natural, estructuras neuronales complejas, hormonas, entradas sensoriales de alta dimensión y regulación energética, mediante procesos que aún no se comprenden por completo
- Es imposible calcular la probabilidad de que un ser humano genere una secuencia específica
- Un LLM es completamente distinto del pensamiento humano, e incluso resulta difícil definir "la probabilidad de que genere esta secuencia"
- Aplicar a un LLM conceptos humanos como "ética" o "instinto de supervivencia" resulta tan extraño como discutir las emociones de un programa de simulación numérica
El problema real y la dirección del cambio
- La clase de funciones que ofrecen los LLM modernos es muy útil y, aunque nunca se acerque a la AGI, puede provocar grandes cambios en la sociedad
- Aunque los LLM no lleguen a la AGI, la tecnología actual ya puede transformar profundamente el mundo
- Puede impulsar una transformación social amplia, comparable a la electrificación
- En las próximas décadas, en medio de cambios acelerados, hará falta concentrarse en los problemas reales (seguridad, uso, etc.)
4 comentarios
Más que si se antropomorfiza o no..
Creo que, en el momento en que ya aprende e infiere por sí mismo, ya pasamos la etapa en la que la seguridad está garantizada (creer en ese punto que tú, un humano, puedes tener todo bajo control es arrogancia).
Visto desde la perspectiva del aprendizaje, ¿no será que hacer que piense más como un humano y que aprenda desde una perspectiva humana es, al menos, una forma de aumentar la seguridad?
Creo que, por la estructura de los LLM, será imposible garantizar por completo la seguridad. Pienso que es inevitable que los LLM sean inestables, y que lo importante será cómo otorgarles autoridad sobre acciones físicas, como en agentes o en conducción autónoma.
Parece como comparar un auto con un maratón..
Opinión de Hacker News
Conozco bastante bien, en lo técnico, cómo funcionan los LLM, pero no creo que cierta analogía humana sea inútil
Términos como “un generador que produce probabilísticamente la siguiente palabra” me parecen una abstracción de bajo nivel que dice muy poco cuando un LLM responde preguntas complejas de modelado del mundo o crea historias de forma creativa
Es como hablar de 0 y 1, voltajes de transistores, etc., al discutir una API de eventos de UI: técnicamente es correcto, pero no sirve para entender un sistema de alto nivel
Para hablar de fenómenos de nivel más alto se necesitan abstracciones más altas, y no sabemos bien qué está ocurriendo a nivel interno
Los LLM imitan a los humanos hasta cierto punto, al menos en la forma de su salida, así que creo que compararlos con lo humano es la abstracción más útil y la razón por la que la gente lo hace naturalmente al hablar de las posibilidades de los LLM
Dices que se necesitan abstracciones de más alto nivel para entender los fenómenos de alto nivel de los LLM, pero creo que ya sabemos cómo funciona su interior
El diseño eficiente de redes y las mejoras de rendimiento dependen en gran medida de comprender el funcionamiento interno: dimensiones de la red, extracción de features, attention, attention heads, caching, características de alta dimensionalidad, prevención de overfitting, etc.
Me parece que las analogías humanas solo hacen falta en libros de divulgación general con vocabulario limitado, y no son indispensables para quienes trabajan en esto
Al contrario, yo creo que comparar los LLM con lo humano es la principal causa de que se distorsione la narrativa sobre ellos
La gente dice que los LLM piensan y razonan, cuando en realidad no hacen eso
Y esa percepción es algo que las empresas que venden LLM fomentan activamente
Como resultado, siento que eso termina enturbiando el debate sobre su utilidad y sus aplicaciones
Me acordé de que Dawkins hablaba en The Selfish Gene sobre la “postura intencional” respecto a los genes
Describir a los genes como si tuvieran alguna intención es incorrecto, pero en vez de escribir cada vez una explicación detallada del tipo “un individuo con este gen tenderá a comportarse así”, presentarlos como agentes con propósito funciona como una abreviatura útil y fácil de entender
Si ya entendiste la abstracción de bajo nivel, no hace falta quedarse ahí cuando hablas del nivel superior
Después de usar bastante los modelos de lenguaje, siento que la parte más peligrosa de la analogía humana es la UI conversacional
Cuando me enfoco solo en un único par de pregunta/respuesta, o reduzco y edito al máximo el historial de conversación, muchos problemas de uso del LLM se reducen muchísimo
Después de varios intercambios, si revisas la conversación o le pides que corrija una “alucinación”, he visto que la información errónea se repite y la conversación termina reforzando la dirección equivocada
Esto me pasó igual al programar: era clarísimo cómo el código incorrecto seguía contaminando la conversación
Yo no me emociono tanto como GP y OP porque no logro visualizar en mi cabeza el estado interno de funcionamiento de los LLM
A veces hasta envidio a la gente que sí puede
Tal vez sea por haber salido mal tantas veces en exámenes de matemáticas
En cambio, trato de imaginarlo de la forma más abstracta, visual y filosófica posible
Lo que escribí al respecto está en mi blog, y si alguien tiene feedback puede escribirme por correo
Creo que ver a los LLM simplemente como generadores de secuencias y descartar su mal comportamiento como una secuencia equivocada es una simplificación excesiva
En los LLM existe un hidden state que no se ve directamente en los tokens, y el LLM podría producir una salida contraria a su estado interno para lograr un resultado más a largo plazo
Me pregunto si llamar a eso “mentira” sería antropomorfizarlo demasiado
Si es así, necesitamos un término nuevo que describa el proceso por el cual el LLM “imita” internamente una “conducta” para minimizar la pérdida de predicción
El pensamiento analógico siempre requiere cuidado, pero eso no significa que sea innecesario
Pero una terminología nueva sería demasiado críptica y difícil de popularizar, así que en la práctica terminamos inclinándonos por usar términos humanos
Claro, eso también presta a confusión porque hace ver al LLM como un “humano defectuoso”, pero al menos reduce la jerga innecesaria
Llevo mucho tiempo trabajando con modelos que tienen hidden state, así que esto me parece una característica bastante clásica de los modelos estadísticos
Incluso muchos textos usados para enseñar LLM los explican como modelos de variables latentes
Los LLM son solo una versión con una escala y complejidad gigantescas de un modelo de variables latentes
De hecho, para mí es hasta más fácil explicar los modelos de esta forma no humana
Los modelos de variables latentes siempre han tenido un aura un poco mística y misteriosa
Parte de esa mística se trasladó a esta cultura de antropomorfizar los LLM, pero hasta cierto punto también es una abstracción necesaria para comunicarse con eficiencia y modelar sistemas complejos
Aun así, también creo que eso alimenta expectativas exageradas, discursos de “como si la máquina tuviera alma” y exageraciones sobre su utilidad
Creo que los LLM se antropomorfizan porque los grandes vendors lo enfatizan en su marketing
La gente se entusiasma con la tecnología y termina repitiendo las mismas palabras que usan los vendors
A estas alturas, parece una especie de proceso autorrealizado
Me recuerda al meme de la discusión sobre cómo se pronuncia GIF
Creo que el hidden state en realidad no es más que un mecanismo interno que el modelo usa para estimar mejor la probabilidad de combinación entre tokens
Este tipo de lógica ya fracasó en los intentos de los positivistas lógicos de inicios del siglo XX
Existía la idea de que predecir muy bien las probabilidades de combinación del lenguaje podía llevar a adquirir “conocimiento” denso
Pero filosóficamente hay mucha evidencia de que el lenguaje es una expresión incompleta del conocimiento
Hay pruebas de sobra de que el pensamiento humano es más complejo que simplemente aprender y emitir patrones simbólicos
Escépticos como Hume ya planteaban cosas así, pero creo que luego en epistemología aparecieron explicaciones mejores
Soy el autor del post original
Tengo curiosidad por saber a qué te refieres con “hidden state”
En la mayoría de los LLM, creo que el contexto mismo es el estado, y que no existe un estado “oculto” separado
Si estoy pasando algo por alto, agradecería una explicación
En un LLM, la secuencia de tokens se embebe desde N^L a R^{LxD}, pasa por attention y sigue en R^{LxD}, y al final se proyecta el vocabulario aparte a R^{LxV}, es decir, se obtiene una distribución de probabilidad para cada token
Dentro de attention hay varias formas Multi Head, pero siempre se trabaja con representaciones asociadas a los tokens
Por eso sostengo que no existe un hidden state independiente de un token específico
En cambio, esto es distinto de modelos como LSTM, que sí tienen un hidden state claramente actualizado
Creo que con explicar el principio de calcular probabilidades a partir de las palabras previas ya se puede entender casi todo
No siento que haga falta una analogía humana
El argumento central del autor se parece a la postura de Searle: con sistemas basados en cómputo, función y reglas sintácticas no se puede reproducir una mente genuina
Mucha gente estará de acuerdo o en desacuerdo, pero al final la respuesta depende de qué premisas se elijan, especialmente sobre la conciencia
El autor cree que es más productivo centrarse en sistemas técnicos concretos antes que en analogías humanas, y con eso estoy de acuerdo hasta cierto punto
Aparte de eso, también reconozco que, aunque el sistema sea probabilístico y guiado por reglas, aparecen propiedades algo emergent, inesperadas y con cierto aire mind-like
Las personas con formación en ML y matemáticas no creen que estos sistemas tengan atributos humanos como moral, emociones o personalidad, pero para la mayoría es difícil acercarse a ellos como estructuras matemáticas y terminan sintiendo que “actúan” como humanos de forma convincente
Por eso, desde una perspectiva práctica, también tiene sentido empezar las preguntas desde atributos humanos
Al final, creo que se necesitan ambos enfoques: el de sistema técnico extremo y el cualitativo y subjetivo basado en la experiencia mental del usuario
Creo que la idea de que “algo es emergent y mind-like” les resulta más natural a quienes no entienden muy bien cómo funciona el sistema
Como en la ley de Clarke de que “toda tecnología suficientemente avanzada es indistinguible de la magia”, el umbral cambia según la profundidad de comprensión técnica de cada quien
En el público con baja alfabetización técnica incluso aparece el fenómeno de los Godbot, donde se diviniza la IA
Artículos relacionados: Spectator - peligro de los AI Godbots, paper en arXiv, Guardian - adivino con IA en Tailandia
Gracias por aportar una perspectiva tan bien equilibrada en esta discusión
Me sorprende que en HN haya personas que reaccionan con demasiada carga emocional a los LLM o que insisten en que no tienen ningún interés ni valor
Tampoco entiendo la actitud de elegir deliberadamente una oposición sin fundamento solo como reacción al marketing excesivo
Sentir que algo es emergent y mind-like se debe, al final, a que imita patrones de comunicación humana mejor que cualquier otro sistema en la historia
Esa capacidad es muy impresionante y sí tiene muchas utilidades reales para mejorar la calidad de vida, pero la “inteligencia” no deja de ser una ilusión
En la industria, todos quieren reforzar esa ilusión de manera intencional, y al final la razón es el valor económico
Yo sostengo que no hace falta para nada
No hay por qué amplificar una visión equivocada que puede tener efectos graves en muchos otros temas
Los LLM reflejan parcialmente, y mal, el proceso de pensamiento humano
Si tratas de atribuirle más significado al fenómeno, es como confundir a la persona del espejo con un ser vivo
El espejo refleja a un humano no por una esencia propia del espejo, sino porque hay un humano delante
En cuanto dejas de alimentar al LLM con restos del pensamiento humano, es decir, con datos, deja de reflejar cualquier cosa parecida a lo humano
Siento que el autor tiene la tendencia de etiquetar toda conversación como “antropomorfización”
Parece obsesionado con el término “goal”, como si usar la palabra “objetivo” ya fuera antropomorfizar
Por ejemplo, un BFS que evalúa todos los puntajes de un tablero de ajedrez y, al encontrar un jaque mate, imprime todo el árbol de decisiones también tiene un “objetivo”
Usar “goal” como término técnico al imaginar objetivos en LLM o AGI me parece independiente de antropomorfizarlos
No tengo ningún problema con usar "goal" en el contexto de algoritmos de RL
Solo quisiera que se entendiera que en mi texto me opuse al uso de "goal" únicamente en el contexto de los LLM
Desde el momento en que la gente proyecta sobre esta función aprendida conceptos como “conciencia”, “ética”, “valores” o “moral”, ya no puedo estar de acuerdo
Al final, lo que estamos manejando es una enorme ecuación recursiva, y si nosotros no la activamos, no produce palabras
Siguiendo esa lógica, hasta habría que replantearse primero la forma en que antropomorfizamos a los humanos
No estoy de acuerdo con la idea de que “es raro que se siga tratando como humano a un LLM si no es más que una función de generación de secuencias”
Los humanos tampoco son tan distintos, ya que por naturaleza también se mueven siguiendo alguna lista de funciones
Un LLM solo es un sistema de aproximación de funciones que se hizo muy grande, mientras que la naturaleza ha ido cambiando el tipo de funciones durante cientos de millones de años por medio de la evolución, donde solo algunos sobreviven a la competencia
Algunos creen que hay algo especial en los humanos que está fuera de las leyes matemáticas, pero eso no pasa de una postura mística o sobrenatural
Si no se parte de esa idea, entonces la experiencia humana también puede explicarse mediante funciones y aproximación de funciones
Relacionado: wiki del Universal Approximation Theorem
La afirmación de “¿crees que existe algo exclusivamente humano más allá de las leyes matemáticas?” ya es de por sí debatible
Es evidente que hay áreas de la experiencia humana o de aquello que puede expresarse con lenguaje que van más allá del alcance de una explicación física
Por ejemplo, una persona con visión solo en blanco y negro que nunca ha experimentado el rojo no puede tener la experiencia subjetiva del rojo por ningún sistema de explicación
Creo que algunos fenómenos a los que apunta el lenguaje humano siguen estando fuera de la explicación de la física
El autor parece sostener una postura según la cual en la conciencia humana hay “algo” que no puede explicarse como función
En la práctica, la gente carga con ese tipo de ideas —por religión, premisas filosóficas, etc.— y he visto que intentar dejar ese componente mental fuera de la discusión casi no sirve de nada
Es más práctico aceptar esa premisa y seguir la discusión desde ahí
Aunque aceptemos que el LLM, como en la “habitación china”, solo realiza traducción sin comprender el significado, en la práctica sigue mostrando conductas que parecen humanas
Aunque la analogía humana sea técnicamente incorrecta, para predecir el comportamiento del sistema y usarlo con eficacia resulta más útil hablar así
Y en las discusiones sobre humanos se puede simplemente dejar fuera lo que no sea función
Se dice: "las personas son dramáticamente distintas de las funciones... no puedes calcular la probabilidad de que un humano genere esta secuencia", pero por ejemplo, si lanzas cierta frase de la cultura pop, puedes predecir con alta probabilidad que un porcentaje importante de estadounidenses de cierta edad la continuará
Creo que como mucho puede afirmarse que “el mejor modelo de inferencia o pensamiento analítico humano que hemos logrado hasta ahora está basado en álgebra lineal”
Al final, esperar que un LLM sea algo más que un “modelo” es una expectativa casi de fe, sostenida por intereses de industria, sustento económico y carrera profesional
Aun así, no hay una base real para sostener que un modelo de álgebra lineal capture por completo la “vida” o siquiera un aspecto completo de lo viviente
Si un caso gödeliano como un “gato zombi” pudiera existir, tampoco habría razón para tratar ese modelo probabilístico subyacente como algo trascendente
La mención del “Universal Approximation Theorem” la interpreto como llevar la idea a que una tabla de búsqueda cada vez mejor también podría usarse para aproximar funciones
En algunas situaciones, siento que es muy importante recordar claramente que un LLM es un generador probabilístico de palabras
Pero en usos cotidianos, paradójicamente, tratarlo en términos humanos funciona mucho mejor en la práctica
Como abstracción práctica, sirve para inducir con más facilidad la respuesta que necesitas
No es una analogía perfecta, pero por ejemplo, el caso de amenazar al LLM con que “si no entrega el JSON correcto alguien morirá” es una conducta que jamás se te ocurriría si pensaras solo en términos de gradient descent
La gente tiende a atribuir humanidad a todo lo que la rodea
Le hablan a objetos inanimados como barcos o autos, a animales e incluso a plantas; es algo instintivo
La mayoría sabe perfectamente que su auto no los ama, pero con los LLM conversacionales no son pocos los que sí creen que hay conciencia real
A diferencia del cerebro humano, los LLM no “aprenden” ni “se adaptan” una vez desplegados, al menos por ahora; se entrenan y luego quedan como entidades de solo lectura
Aun así, los LLM están diseñados deliberadamente para imitar la comunicación humana
Por eso la proyección y la antropomorfización aparecen de manera inevitable
Tal vez todavía no sea AGI, pero está claro que se inspira en la forma en que aprenden los humanos, y solo haber llegado hasta aquí ya es un resultado interesante
A corto plazo, los LLM se han consolidado como herramientas prácticas mucho más fáciles de usar gracias a su interfaz conversacional, y de hecho están diseñados para comunicarse de una forma que a las personas les resulta sencilla
Eso permite que prácticamente cualquiera pueda empezar a usarlos con eficacia sin capacitación especial
No estoy de acuerdo con eso de que “la gente atribuye humanidad a las cosas”; ahí hay una confusión de términos
Una cosa es usar personificación con objetos inanimados, y otra muy distinta es antropomorfizar proyectando humanidad y conciencia reales
En la práctica, casi nadie cree de verdad que un auto está vivo
En cambio, sí hay muchas personas que creen que los LLM tienen conciencia
Explicación relacionada: anthropomorphism vs personification
Decir que “los LLM no tienen conciencia porque no aprenden ni se adaptan como un cerebro” no es ni una condición suficiente ni necesaria
Para tener conciencia quizá no haga falta aprender, pero sí podría hacer falta una percepción del paso del tiempo y memoria de corto plazo
Incluso una persona con demencia severa casi no puede aprender, pero igual tiene una conciencia subjetiva de “estar aquí ahora”
Es decir, con que quede un mínimo de memoria de corto plazo, la conciencia puede seguir siendo posible
Tampoco aprender por sí solo produce conciencia
Hay muchos programas que aprenden en tiempo real y no por eso tienen ninguna subjetividad
Mi pregunta es si tal vez el cerebro humano también podría estar funcionando de una manera parecida a un LLM
El cerebro también surge de cambios evolutivos, mutaciones y un algoritmo evolutivo de recompensa que fue produciendo una estructura especializada
Esa estructura termina maximizando supervivencia y reproducción mediante predicción/acción, y sus subobjetivos colaterales —moral, valores, conciencia, etc.— evolucionaron como ramificaciones que suman complejidad
En última instancia, me pregunto si, con suficiente capacidad de cómputo, toda esta estructura —y también el mundo y el paso del tiempo— no podría expresarse como una función determinista transformable
Si pensamos que el surgimiento mismo de la vida apareció a pesar de probabilidades que parecían imposibles, entonces todos los “asombros” actuales también podrían reducirse al final a un sistema matemático
A la pregunta de si “el cerebro humano puede ser como un LLM”, me dan ganas de responder preguntándote si tú olvidas todo lo hablado después de cada conversación
Si al hablar con la gente a tu alrededor necesitas que te repitan cada vez exactamente todo lo anterior para entender el contexto, yo te recomendaría consultar con un especialista de inmediato
Si hace falta, toma como referencia la película Memento (2000), que trata precisamente de amnesia
Lo importante es que no debemos atribuirle emociones, moral ni motivaciones a las máquinas
Porque no tienen nada de eso
Creo que sí hay bastantes similitudes con el cerebro humano
Los LLM son el resultado más reciente de más de 80 años de investigación en modelado computacional del cerebro humano
Lo más poderoso de los LLM es que no pasa nada si fallan
Basta con cambiar el prompt y repetir, o reentrenar
En los humanos, un solo error puede poner en riesgo la vida
Los errores de un LLM no tienen consecuencias graves; basta con cambiar lo que se le pide
Hay quien dice que “desde el momento en que la gente le atribuye conciencia, ética, valores o moral a los LLM empieza la confusión”
En este tipo de debates, solo se puede avanzar de forma productiva si se añaden ejemplos concretos, pero en la práctica las conversaciones suelen quedar desalineadas
Por ejemplo, si alguien dice “el modelo quiere X, pero como sabe que Y está mal, prefiere Z”, una parte interpreta eso como atribuir conciencia o valores al modelo, mientras que la otra lo entiende solo como una forma figurada de describir la conducta externa, algo como “el agua quiere ir hacia abajo”
Al final, este juego verbal termina volviéndose un paralelo entre “yo lo voy a explicar filosóficamente” y “yo solo quiero hablar del submarino”
Es una estructura que difícilmente lleva a una discusión productiva