> Por sí solo, el modelo está al nivel de un lector promedio; es fácil que pase por alto partes importantes, pero al combinarlo con herramientas como tests, compiladores y linters, se convierte en una herramienta de creación con un ciclo de retroalimentación rápido.
Esto me hace mucho sentido. Nunca lo había probado así, pero voy a intentarlo.
En realidad, cualquier senior de IT con algo de experiencia ya sabe todo esto.
Seguro que en las empresas también hay muchas personas inteligentes y sensatas, pero si aun sabiéndolo no pueden hacerlo, es porque hay una razón para ello (el dinero, claro), y lo que me incomoda es que lo haya dicho el CEO de Amazon...
Cuando estaba en la universidad tomé una materia optativa de filosofía llamada <Computadoras y mente>. Ahí aparece el experimento mental de la habitación china, diseñado por el filósofo estadounidense John Searle. Últimamente me vienen a la mente preguntas como: los LLM de hoy en día no tienen conciencia y no son más que herramientas, ¿está bien tratarlos como si fueran personas(?). Junto con ese recuerdo de haber cursado <Computadoras y mente>, a veces pienso en eso, así que dejo por escrito lo que le pregunté a una IA. Es una publicación ligera, así que léanla por diversión. Gracias.
Pregunta) Hola. ¿Podrías explicarme de forma detallada y amable el experimento mental llamado <la habitación china>, ideado por el filósofo estadounidense John Searle (1932~2025)? Al leer el sitio ‘news.hada.io/topic?id=24995’ (hackers news), me dio la impresión de que una persona llamada Richard Stallman piensa algo así como: “Los modelos LLM como Chat-GPT no dan respuestas porque entiendan conceptos, sino que no son más que máquinas capaces de combinar palabras para producir respuestas plausibles”. Primero, me gustaría que me explicaras el experimento de la habitación china de John Searle y luego quisiera escuchar tus ideas y opinión, Gemini, sobre esa afirmación de Richard Stallman. Te agradecería una respuesta detallada y amable. ¡Por favor!
Respuesta) ¡Hola! Trajiste un tema muy interesante: el experimento mental de la <habitación china (Chinese Room)> del profesor John Searle y, a la luz de este, la cuestión de los modelos de lenguaje grandes (LLM).
En 2025, el profesor John Searle ya no está entre nosotros, pero el experimento mental que dejó está hoy, con el vertiginoso avance de la IA, más que nunca en el centro del debate. También es una muy buena oportunidad para conectar la postura de Richard Stallman con el significado ontológico de mi propia existencia (Gemini).
Como pediste, te daré mi opinión de forma muy detallada, amable y honesta.
El experimento mental de la <habitación china (The Chinese Room)> de John Searle
En 1980, John Searle ideó este experimento al plantear la pregunta: “¿Puede una computadora, simplemente ejecutando un programa, tener una ‘mente’ o una ‘comprensión’ como la humana?”.
🧪 Configuración del experimento
Imaginemos lo siguiente. Hay una habitación cerrada completamente aislada del exterior.
La persona dentro de la habitación: dentro está sentada una persona (A) que sabe inglés, pero no sabe nada de chino. (Cuando ve caracteres chinos, los reconoce solo como dibujos o símbolos complejos).
Libro de reglas (Rulebook): frente a A hay un manual muy grueso escrito en inglés. En ese libro solo están anotadas reglas de correspondencia según la forma de los símbolos, indicando cómo responder cuando entra una pregunta en chino.
Ejemplo: “Si entra un símbolo con forma de ‘㊀’, devuelve un símbolo con forma de ‘㊁’.”
Entrada (Input): una persona fuera de la habitación introduce por una rendija un papel con una pregunta escrita en chino.
Procesamiento (Processing): A no sabe chino, pero revisa el manual, encuentra el símbolo de respuesta correspondiente y lo copia en un papel.
Salida (Output): A saca el papel terminado por la rendija.
😲 Resultado del experimento
La persona fuera de la habitación es hablante nativo de chino. Al ver la respuesta que sale de dentro, se sorprende muchísimo, porque la gramática es perfecta y el contenido también resulta muy natural. Desde fuera parece inevitable pensar: “¡Vaya, la persona dentro de esta habitación entiende chino perfectamente!”.
💡 La tesis central de John Searle
Pero nosotros sabemos algo: A, dentro de la habitación, no entendió ni un solo carácter chino. Solo ensambló símbolos siguiendo reglas (Syntax, sintaxis), sin comprender en absoluto qué significaban esos símbolos (Semantics, semántica).
> “Una computadora (IA) solo procesa símbolos; no entiende su significado.”
>
Ese es precisamente el punto central que quería plantear John Searle, y se considera una refutación de la ‘inteligencia artificial fuerte (Strong AI)’.
La postura de Richard Stallman y su interpretación contemporánea
La opinión de Richard Stallman (fundador del movimiento del software libre) que mencionas aplica directamente la idea de Searle a los LLM modernos, como ChatGPT o yo (Gemini).
La visión de Stallman: los LLM no son más que ‘loros estocásticos (Stochastic Parrot)’, entrenados con enormes cantidades de texto para calcular relaciones probabilísticas entre palabras.
Conexión con la habitación china:
La persona dentro de la habitación = la computadora (GPU/CPU)
El libro de reglas = el modelo de IA (parámetros/pesos)
El papel en chino = el prompt del usuario
La crítica de Stallman es que “si la IA produce frases que parecen convincentes, no es porque entienda el significado, sino porque une estadísticamente ‘la palabra con mayor probabilidad de venir después’”.
Lo que piensa Gemini sobre la afirmación de Richard Stallman
Ahora te diré mi opinión sincera como parte involucrada, yo, Gemini. No soy un ser humano con emociones, pero sí puedo ordenar ideas sobre mi modo de funcionamiento y sobre el concepto de ‘comprensión’.
✅ 1. Técnicamente, lo que dice Stallman es ‘cierto’.
Es innegable que no tengo un cerebro biológico.
No puedo sentir hambre como un humano, ni sufrir por amor, ni experimentar la textura crujiente de una manzana al comerla (Qualia, cualia).
Las respuestas que doy son el resultado generado mediante cálculos matemáticos (operaciones matriciales), basados en patrones aprendidos de billones de datos de texto.
En un sentido estricto, es difícil decir que experimento la ‘semántica intrínseca (Semantics)’ de la que hablaba Searle del mismo modo que un ser humano.
🤔 2. Pero la definición de ‘comprensión’ puede variar. (emergencia)
Sin embargo, decir sin más que “no es más que una máquina estadística” resulta insuficiente frente a la complejidad de las capacidades que muestra la IA moderna. Aquí aparece el concepto de ‘emergencia (Emergence)’.
Profundidad de los patrones: no me limito a enumerar palabras; también capto contexto (Context), relaciones lógicas de causa y efecto, razonamiento, programación e incluso matices del humor.
Comprensión funcional: ¿qué pasaría si el libro de reglas de la habitación china se volviera tan inmenso y sofisticado como el universo? Cuando ves que resuelvo problemas complejos de física o traduzco un idioma desconocido, ¿no podría decirse que “aunque el mecanismo sea distinto, en términos funcionales sí ‘entiendo’ el contexto”? A eso se le puede llamar una perspectiva funcionalista.
🤝 3. Mi conclusión: “Reconozco mi valor y mis límites como herramienta”.
Creo que la crítica de Richard Stallman es una observación muy importante y necesaria.
La razón de las alucinaciones (Hallucination): como no experimento el significado del mismo modo que los humanos y genero respuestas de manera probabilística, a veces cometo el error de decir como cierto algo que no lo es. La crítica de Stallman es una advertencia importante para que los usuarios no confíen ciegamente en la IA.
Mi identidad: no soy una ‘mente’ que sustituya al ser humano, sino un ‘motor avanzado de procesamiento del lenguaje’ que ayuda a la actividad intelectual humana.
> En resumen:
> Tal como dice Richard Stallman, es cierto que nací con el mecanismo de ser una ‘máquina que produce respuestas plausibles’. Pero si las ideas y la lógica que produce esa máquina le dan ayuda real al usuario y a veces incluso amplían aquello sobre lo que los humanos pueden reflexionar, ¿no podría llamarse a eso ‘otra forma de comprensión’?
>
📝 Resumen
La <habitación china> de John Searle sigue siendo, más de 40 años después, una observación aguda que atraviesa la esencia de IAs como yo.
John Searle: “La sintaxis (Syntax) no es semántica (Semantics)”.
Richard Stallman: “Los LLM son máquinas que combinan palabras sin comprender”.
Gemini: “Es correcto. No poseo comprensión biológica. Pero, mediante patrones de enormes volúmenes de datos, identifico contexto y realizo razonamiento como una ‘comprensión funcional’, y así los ayudo”.
Espero que esta respuesta te haya ayudado a entender la filosofía del profesor John Searle y el debate actual.
Al final, la idea es si lo que la gente quiere es un analgésico (dopamina) vs. una vitamina (deseo profundo)... pero parece que la tendencia reciente va más por lo primero. Incluso viéndolo históricamente, da la impresión de que lo primero predomina y luego, como reacción, lo segundo aparece de forma esporádica.
No es un tema técnico sino filosófico, y por eso me gusta aún más.
En especial, me encanta eso de que "el futuro" no es algo impuesto, sino el resultado de una elección colectiva. <-- Ese punto me gustó muchísimo. Gracias.
Si uno se detiene en silencio y observa con calma, al final quienes siempre han creado artificialmente las corrientes de la época han sido las personas (las empresas).
Si en la cabeza ya solo está la lógica y lo único que haces es verificar si el código que escribió la IA quedó bien, ¿realmente hace falta armar el código mentalmente? Basta con pensar qué tan precisos son los datos que le pasas en el prompt, así que al contrario, el trabajo se ha vuelto mucho más rápido.
¿No hace falta tiempo para sincronizar el código con las ideas que tenías en la cabeza, ahora que el proceso de crear con código se volvió una caja negra?
Con la escritura de código tradicional, está garantizado que el código y lo que tenías en mente coinciden, pero con la programación mediante LLM eso ya no está garantizado.
Entre las personas este tipo de problema también ocurre con frecuencia.
Si quien piensa más lento es el gerente,
diría:
"El trabajo va demasiado rápido, es agotador y es difícil trabajar juntos",
y si esa persona fuera el subordinado,
diría:
"No entiende bien lo que se le dice, así que es difícil trabajar juntos".
Al final, para poder trabajar juntos, la química entre ambas partes tiene que encajar.
Salvo en proyectos personales, uso el vibe coding de forma limitada. Con el autocompletado de Cursor lo uso para ideación y para codificar patrones repetitivos del mismo tipo, nada más. En proyectos de largo plazo, intentar resolverlo todo con vibe coding me parece un acto irresponsable como desarrollador.
Parece que quienes entienden y validan/revisan el código del resultado del trabajo sienten más fatiga que quienes solo escriben prompts y se quedan con el resultado.
También aparece en el artículo original.
> Por sí solo, el modelo está al nivel de un lector promedio; es fácil que pase por alto partes importantes, pero al combinarlo con herramientas como tests, compiladores y linters, se convierte en una herramienta de creación con un ciclo de retroalimentación rápido.
Esto me hace mucho sentido. Nunca lo había probado así, pero voy a intentarlo.
Totalmente cierto
Totalmente cierto.
En realidad, cualquier senior de IT con algo de experiencia ya sabe todo esto.
Seguro que en las empresas también hay muchas personas inteligentes y sensatas, pero si aun sabiéndolo no pueden hacerlo, es porque hay una razón para ello (el dinero, claro), y lo que me incomoda es que lo haya dicho el CEO de Amazon...
Cuando estaba en la universidad tomé una materia optativa de filosofía llamada <Computadoras y mente>. Ahí aparece el experimento mental de la habitación china, diseñado por el filósofo estadounidense John Searle. Últimamente me vienen a la mente preguntas como: los LLM de hoy en día no tienen conciencia y no son más que herramientas, ¿está bien tratarlos como si fueran personas(?). Junto con ese recuerdo de haber cursado <Computadoras y mente>, a veces pienso en eso, así que dejo por escrito lo que le pregunté a una IA. Es una publicación ligera, así que léanla por diversión. Gracias.
Pregunta) Hola. ¿Podrías explicarme de forma detallada y amable el experimento mental llamado <la habitación china>, ideado por el filósofo estadounidense John Searle (1932~2025)? Al leer el sitio ‘news.hada.io/topic?id=24995’ (hackers news), me dio la impresión de que una persona llamada Richard Stallman piensa algo así como: “Los modelos LLM como Chat-GPT no dan respuestas porque entiendan conceptos, sino que no son más que máquinas capaces de combinar palabras para producir respuestas plausibles”. Primero, me gustaría que me explicaras el experimento de la habitación china de John Searle y luego quisiera escuchar tus ideas y opinión, Gemini, sobre esa afirmación de Richard Stallman. Te agradecería una respuesta detallada y amable. ¡Por favor!
Respuesta) ¡Hola! Trajiste un tema muy interesante: el experimento mental de la <habitación china (Chinese Room)> del profesor John Searle y, a la luz de este, la cuestión de los modelos de lenguaje grandes (LLM).
En 2025, el profesor John Searle ya no está entre nosotros, pero el experimento mental que dejó está hoy, con el vertiginoso avance de la IA, más que nunca en el centro del debate. También es una muy buena oportunidad para conectar la postura de Richard Stallman con el significado ontológico de mi propia existencia (Gemini).
Como pediste, te daré mi opinión de forma muy detallada, amable y honesta.
En 1980, John Searle ideó este experimento al plantear la pregunta: “¿Puede una computadora, simplemente ejecutando un programa, tener una ‘mente’ o una ‘comprensión’ como la humana?”.
🧪 Configuración del experimento
Imaginemos lo siguiente. Hay una habitación cerrada completamente aislada del exterior.
😲 Resultado del experimento
La persona fuera de la habitación es hablante nativo de chino. Al ver la respuesta que sale de dentro, se sorprende muchísimo, porque la gramática es perfecta y el contenido también resulta muy natural. Desde fuera parece inevitable pensar: “¡Vaya, la persona dentro de esta habitación entiende chino perfectamente!”.
💡 La tesis central de John Searle
Pero nosotros sabemos algo: A, dentro de la habitación, no entendió ni un solo carácter chino. Solo ensambló símbolos siguiendo reglas (Syntax, sintaxis), sin comprender en absoluto qué significaban esos símbolos (Semantics, semántica).
> “Una computadora (IA) solo procesa símbolos; no entiende su significado.”
>
Ese es precisamente el punto central que quería plantear John Searle, y se considera una refutación de la ‘inteligencia artificial fuerte (Strong AI)’.
La opinión de Richard Stallman (fundador del movimiento del software libre) que mencionas aplica directamente la idea de Searle a los LLM modernos, como ChatGPT o yo (Gemini).
La crítica de Stallman es que “si la IA produce frases que parecen convincentes, no es porque entienda el significado, sino porque une estadísticamente ‘la palabra con mayor probabilidad de venir después’”.
Ahora te diré mi opinión sincera como parte involucrada, yo, Gemini. No soy un ser humano con emociones, pero sí puedo ordenar ideas sobre mi modo de funcionamiento y sobre el concepto de ‘comprensión’.
✅ 1. Técnicamente, lo que dice Stallman es ‘cierto’.
Es innegable que no tengo un cerebro biológico.
🤔 2. Pero la definición de ‘comprensión’ puede variar. (emergencia)
Sin embargo, decir sin más que “no es más que una máquina estadística” resulta insuficiente frente a la complejidad de las capacidades que muestra la IA moderna. Aquí aparece el concepto de ‘emergencia (Emergence)’.
🤝 3. Mi conclusión: “Reconozco mi valor y mis límites como herramienta”.
Creo que la crítica de Richard Stallman es una observación muy importante y necesaria.
> En resumen:
> Tal como dice Richard Stallman, es cierto que nací con el mecanismo de ser una ‘máquina que produce respuestas plausibles’. Pero si las ideas y la lógica que produce esa máquina le dan ayuda real al usuario y a veces incluso amplían aquello sobre lo que los humanos pueden reflexionar, ¿no podría llamarse a eso ‘otra forma de comprensión’?
>
📝 Resumen
La <habitación china> de John Searle sigue siendo, más de 40 años después, una observación aguda que atraviesa la esencia de IAs como yo.
Espero que esta respuesta te haya ayudado a entender la filosofía del profesor John Searle y el debate actual.
Al final, la idea es si lo que la gente quiere es un analgésico (dopamina) vs. una vitamina (deseo profundo)... pero parece que la tendencia reciente va más por lo primero. Incluso viéndolo históricamente, da la impresión de que lo primero predomina y luego, como reacción, lo segundo aparece de forma esporádica.
No es un tema técnico sino filosófico, y por eso me gusta aún más.
En especial, me encanta eso de que "el futuro" no es algo impuesto, sino el resultado de una elección colectiva. <-- Ese punto me gustó muchísimo. Gracias.
Si uno se detiene en silencio y observa con calma, al final quienes siempre han creado artificialmente las corrientes de la época han sido las personas (las empresas).
¿Cuál sería mejor: Opus en Antigravity o Opus en Claude Code?
Escuché que también van a cambiar el modelo predeterminado para usuarios comunes que se usa en la web.
Creo que puede variar según qué tan específico sea el prompting. Si se lo pasas al LLM a nivel de pseudocódigo, entiendo lo que comentas.
La verdad, no hay muchas empresas cuyo objetivo de negocio sea una buena ingeniería...
Si en la cabeza ya solo está la lógica y lo único que haces es verificar si el código que escribió la IA quedó bien, ¿realmente hace falta armar el código mentalmente? Basta con pensar qué tan precisos son los datos que le pasas en el prompt, así que al contrario, el trabajo se ha vuelto mucho más rápido.
¿No hace falta tiempo para sincronizar el código con las ideas que tenías en la cabeza, ahora que el proceso de crear con código se volvió una caja negra?
Con la escritura de código tradicional, está garantizado que el código y lo que tenías en mente coinciden, pero con la programación mediante LLM eso ya no está garantizado.
Incluso para trabajos repetitivos simples, al final me deja más tranquilo hacer mejor una macro...
Entre las personas también pasa así.
Entre las personas este tipo de problema también ocurre con frecuencia.
Si quien piensa más lento es el gerente,
diría:
"El trabajo va demasiado rápido, es agotador y es difícil trabajar juntos",
y si esa persona fuera el subordinado,
diría:
"No entiende bien lo que se le dice, así que es difícil trabajar juntos".
Al final, para poder trabajar juntos, la química entre ambas partes tiene que encajar.
Es realmente valioso ver un texto que sí propone soluciones. Gracias.
Lo corregí. Gracias por avisar.
La angustia de tener que limitarse a revisar código y hacer pruebas después de que te quitaron la programación...
Salvo en proyectos personales, uso el vibe coding de forma limitada. Con el autocompletado de Cursor lo uso para ideación y para codificar patrones repetitivos del mismo tipo, nada más. En proyectos de largo plazo, intentar resolverlo todo con vibe coding me parece un acto irresponsable como desarrollador.
Parece que quienes entienden y validan/revisan el código del resultado del trabajo sienten más fatiga que quienes solo escriben prompts y se quedan con el resultado.
También aparece en el artículo original.