Pensaba que era importante tener la capacidad de expresar los resultados o los objetivos con números, pero este artículo dice que incluso hay que expresarlos con gráficos. Es una idea con la que empatizo desde el punto de vista de la comprensión y la confianza que genera en la otra parte.
¿No es, en el fondo, una creencia personal de Stallman la base misma de afirmar que, fundamentalmente, el usuario debe poder tener el código fuente o una copia del software?
Esa postura de levantar una creencia muy radical, idealista y puramente teórica, como si todo pudiera y debiera repartirse gratis y de forma equitativa, y tratar como herejía cualquier cosa que proyecte aunque sea una sombra sobre ese castillo en el aire, sea lo que sea, me cuesta aceptarla. La humanidad ya tiene una enfermedad muy parecida respecto al sistema económico.
Estoy de acuerdo en que los resultados de la IA generativa son probabilísticos y en que no tienen el semantic grounding que mencionaste, pero al final es solo una diferencia de grado: incluso al comunicarnos y deliberar con otras personas, juzgar y verificar el contenido sigue siendo responsabilidad de cada uno. Ya sea que mi interlocutor sea una IA generativa o una persona, sus respuestas al final están influidas por los conocimientos previos que aprendió y por los datos de aprendizaje que forman sus valores. Claro, que exista esa similitud no significa que la IA tenga una inteligencia verdadera, pero si la IA generativa es indiferente a la verdad desde el principio, es porque los datos con los que aprendió también son indiferentes a la verdad, y con las personas pasa lo mismo. Solo con ese hecho, no me resulta convincente decir que “no debería usarse”.
Sobre el punto 3, veo que ahí sí interpreté algo apresuradamente y entendí mal. Igual que en el punto 2 sobre el código fuente, pensé que si se trataba de una idea del tipo “el usuario debe saber qué ocurre en el servidor”, entonces también podía entenderse en el mismo sentido si se comparaba a otra persona, como proveedor de un servicio de conocimiento, con un servidor; pero simplemente fui yo quien lo entendió mal desde el principio.
Sin embargo, como dijiste, no creo que lo de ser dogmático haya sido un malentendido mío.
Si se dice que necesariamente debe poder obtenerse el código fuente o una copia de una IA generativa, entonces la propiedad intelectual quedaría hecha pedazos.
Si te molesta que tus datos se entreguen al servidor de otra persona, entonces no los entregues. Basta con no usarlo. No hay manera de discutir un secreto sin revelárselo a nadie. Decir que cualquiera debería poder tener el código fuente o una copia de una IA que alguien desarrolló invirtiendo tiempo, recursos y esfuerzo... si eso no es bullshit, entonces ¿qué es? Que yo ponga lo mío gratis no significa que pueda disponer como quiera de lo ajeno.
Como dijiste al principio, yo no conozco bien ni a Stallman como persona ni sus posturas. Apenas he oído su nombre de manera superficial, y sé más o menos que hay conflictos relacionados con el software libre. Pero no sé hasta dónde llegan sus ideas e influencia, ni qué tan en serio se las toma. Aun así, al menos sí me parece que tengo la libertad de llamar bullshit a una postura que carece de racionalidad y realismo.
Ahora hasta me pregunto si hace falta algo así. La IA arma muy bien scripts para medir el rendimiento justo de acuerdo con el momento y la situación...
Stallman es tan fundamentalista que parece haberlo llamado un generador de tonterías. Como todos saben, probablemente quiere expresar más o menos lo mismo que el término "loro estocástico".
Pero también es cierto que los LLM, que hoy son loros estocásticos, están mejorando drásticamente la productividad de la humanidad. Y a la gente probablemente le interesa más la innovación industrial que la libertad informática. Tampoco hay garantía de que los humanos no seamos también loros estocásticos.
Desde la perspectiva de un país donde la ley de apagón se implementó y luego se abolió, esto no es muy distinto de una versión australiana de esa misma ley. Para que una regulación uniforme funcione de verdad, habría que acceder incluso a datos personales, así que queda por ver si el gobierno australiano hará algo así.
Parece que entendiste mal quién es Stallman y qué quiere decir.
La intención de este texto es advertir que, por la naturaleza probabilística de los LLM, no tienen semantic grounding y pueden decir cosas incorrectas de forma convincente. No se los puede poner al mismo nivel que las personas solo porque cualquiera puede cometer errores.
Entender los principios subyacentes y obtener el código fuente son cosas completamente distintas. El problema es que ChatGPT es software propietario y, por eso, aunque tuviera esa capacidad, no puedes instalar, modificar ni distribuir ChatGPT por tu cuenta.
Stallman es un libertario radical que creó el concepto de free software. Hasta cierto punto también estoy de acuerdo con que puede ser dogmático, pero no entiendo cómo se pasa de decir que está mal hacer cómputo en el servidor de otra persona a afirmar que los pensamientos en la cabeza de otra persona violan la libertad.
Stallman es radical y no siempre tiene razón en todo, pero el problema planteado en este texto ya es algo que se viene discutiendo activamente. No es una lógica que se pueda descartar simplemente como bullshit.
“Genera resultados sin importar si son verdaderos o no”
“Software privativo en el que el usuario no puede obtener el ejecutable ni el código fuente”
“La forma de realizar cómputo en servidores ajenos perjudica la libertad de cómputo del usuario”
Según esta definición, viene a ser casi lo mismo que decir que no se debe usar ningún tipo de servicio que pase por el cerebro de otra persona sin pasar por mis manos, incluidos los empleados, los servicios en la nube e incluso el teléfono.
El punto 1: simplemente todo lo que existe en la realidad puede generar resultados sin importar si son verdaderos o no. Incluso un sistema que fue diseñado con la intención de producir resultados verídicos puede no lograrlo. A eso lo llamamos “error”.
Punto 2. Si decir que solo se puede usar algo cuando se puede obtener el ejecutable o el código fuente equivale a afirmar que para usar un sistema hay que conocer sus principios internos, entonces todas las personas que no estudiaron física ni ingeniería eléctrica/electrónica tendrían que soltar de inmediato sus smartphones y computadoras. Sería como decir que no puedes usar la función de rastreo de ubicación sin haber aprendido la teoría de la relatividad. ¿De verdad Stallman tendrá en su cabeza el plano de diseño del peluquero que le corta el pelo?
Si seguimos el punto 3, entonces esta persona es un dogmático que no confía en el pensamiento de nadie más. Porque cualquier pensamiento ajeno y cualquier conclusión derivada de él invadirían la libertad de “mi” pensamiento, al interferir con mi libertad de pensar por mi cuenta.
Se puede decir que, en relación con si la inteligencia artificial generativa realmente posee inteligencia, no conviene creer a la ligera que se trata de un ser inteligente; pero las lógicas forzadas que se ponen a la par de esa idea son simplemente bullshit.
Si la inteligencia artificial en última instancia no puede tener alma, ¿hay alguna razón por la que su inteligencia deba parecerse necesariamente a la inteligencia humana que busca la verdad? Incluso muchas de las actividades que llamamos intelectuales se basan en mentiras y alucinaciones. Los seres humanos de la sociedad moderna también afectan la vida de otros con falsedades porque no perciben los fenómenos (o a propósito).
En Corea también los scooters están invadiendo las banquetas y causando el mismo problema social, así que supongo que con los robots de reparto también podría pasar. Aun así, como van a baja velocidad y no es probable que los abandonen ilegalmente, me parece que serían mejores que los scooters... Creo que primero debería regularse a los scooters.
Yo también pienso algo parecido... primero que nada, la Linux Foundation hace demasiadas cosas.
También se hace cargo de cosas abandonadas como Servo....
Acabo de verlo, y me parece que es una reacción nacida de la desconfianza hacia MCP en sí.
El matiz es algo como: "Aunque ahora se use mucho, ¿cuánto tiempo va a durar esto?".
Pero creo que, desde el momento en que Google y OpenAI apoyan MCP, este tipo de oposición es más bien una oposición por inercia.
Yo tampoco era muy fan al principio, porque me parecía un juego de palabras que no era tan distinto de Function Calling, pero al ver que las empresas lo estaban unificando pensé que entonces tendría sentido incluso desde la etapa de aprendizaje.
Aun así, me sorprende que todavía haya gente que simplemente siga oponiéndose.
Pensaba que era importante tener la capacidad de expresar los resultados o los objetivos con números, pero este artículo dice que incluso hay que expresarlos con gráficos. Es una idea con la que empatizo desde el punto de vista de la comprensión y la confianza que genera en la otra parte.
Es cierto, pero aun así los LLM están dando respuestas correctas con una probabilidad sorprendentemente alta.
¿No es, en el fondo, una creencia personal de Stallman la base misma de afirmar que, fundamentalmente, el usuario debe poder tener el código fuente o una copia del software?
Esa postura de levantar una creencia muy radical, idealista y puramente teórica, como si todo pudiera y debiera repartirse gratis y de forma equitativa, y tratar como herejía cualquier cosa que proyecte aunque sea una sombra sobre ese castillo en el aire, sea lo que sea, me cuesta aceptarla. La humanidad ya tiene una enfermedad muy parecida respecto al sistema económico.
Estoy de acuerdo en que los resultados de la IA generativa son probabilísticos y en que no tienen el semantic grounding que mencionaste, pero al final es solo una diferencia de grado: incluso al comunicarnos y deliberar con otras personas, juzgar y verificar el contenido sigue siendo responsabilidad de cada uno. Ya sea que mi interlocutor sea una IA generativa o una persona, sus respuestas al final están influidas por los conocimientos previos que aprendió y por los datos de aprendizaje que forman sus valores. Claro, que exista esa similitud no significa que la IA tenga una inteligencia verdadera, pero si la IA generativa es indiferente a la verdad desde el principio, es porque los datos con los que aprendió también son indiferentes a la verdad, y con las personas pasa lo mismo. Solo con ese hecho, no me resulta convincente decir que “no debería usarse”.
Sobre el punto 3, veo que ahí sí interpreté algo apresuradamente y entendí mal. Igual que en el punto 2 sobre el código fuente, pensé que si se trataba de una idea del tipo “el usuario debe saber qué ocurre en el servidor”, entonces también podía entenderse en el mismo sentido si se comparaba a otra persona, como proveedor de un servicio de conocimiento, con un servidor; pero simplemente fui yo quien lo entendió mal desde el principio.
Sin embargo, como dijiste, no creo que lo de ser dogmático haya sido un malentendido mío.
Si se dice que necesariamente debe poder obtenerse el código fuente o una copia de una IA generativa, entonces la propiedad intelectual quedaría hecha pedazos.
Si te molesta que tus datos se entreguen al servidor de otra persona, entonces no los entregues. Basta con no usarlo. No hay manera de discutir un secreto sin revelárselo a nadie. Decir que cualquiera debería poder tener el código fuente o una copia de una IA que alguien desarrolló invirtiendo tiempo, recursos y esfuerzo... si eso no es bullshit, entonces ¿qué es? Que yo ponga lo mío gratis no significa que pueda disponer como quiera de lo ajeno.
Como dijiste al principio, yo no conozco bien ni a Stallman como persona ni sus posturas. Apenas he oído su nombre de manera superficial, y sé más o menos que hay conflictos relacionados con el software libre. Pero no sé hasta dónde llegan sus ideas e influencia, ni qué tan en serio se las toma. Aun así, al menos sí me parece que tengo la libertad de llamar bullshit a una postura que carece de racionalidad y realismo.
Ahora hasta me pregunto si hace falta algo así. La IA arma muy bien scripts para medir el rendimiento justo de acuerdo con el momento y la situación...
Stallman es tan fundamentalista que parece haberlo llamado un generador de tonterías. Como todos saben, probablemente quiere expresar más o menos lo mismo que el término "loro estocástico".
Pero también es cierto que los LLM, que hoy son loros estocásticos, están mejorando drásticamente la productividad de la humanidad. Y a la gente probablemente le interesa más la innovación industrial que la libertad informática. Tampoco hay garantía de que los humanos no seamos también loros estocásticos.
"Incluso si haces vibe coding, deberías hacerlo en un lenguaje que conozcas bien para poder revisar el resultado"
Hay una frase muy importante en los comentarios.
Desde la perspectiva de un país donde la ley de apagón se implementó y luego se abolió, esto no es muy distinto de una versión australiana de esa misma ley. Para que una regulación uniforme funcione de verdad, habría que acceder incluso a datos personales, así que queda por ver si el gobierno australiano hará algo así.
¿Código fuente abierto...? Entonces, ¡¡¡DeepSeek!!!
Parece que entendiste mal quién es Stallman y qué quiere decir.
Stallman es radical y no siempre tiene razón en todo, pero el problema planteado en este texto ya es algo que se viene discutiendo activamente. No es una lógica que se pueda descartar simplemente como bullshit.
jajajaja
Según esta definición, viene a ser casi lo mismo que decir que no se debe usar ningún tipo de servicio que pase por el cerebro de otra persona sin pasar por mis manos, incluidos los empleados, los servicios en la nube e incluso el teléfono.
El punto 1: simplemente todo lo que existe en la realidad puede generar resultados sin importar si son verdaderos o no. Incluso un sistema que fue diseñado con la intención de producir resultados verídicos puede no lograrlo. A eso lo llamamos “error”.
Punto 2. Si decir que solo se puede usar algo cuando se puede obtener el ejecutable o el código fuente equivale a afirmar que para usar un sistema hay que conocer sus principios internos, entonces todas las personas que no estudiaron física ni ingeniería eléctrica/electrónica tendrían que soltar de inmediato sus smartphones y computadoras. Sería como decir que no puedes usar la función de rastreo de ubicación sin haber aprendido la teoría de la relatividad. ¿De verdad Stallman tendrá en su cabeza el plano de diseño del peluquero que le corta el pelo?
Si seguimos el punto 3, entonces esta persona es un dogmático que no confía en el pensamiento de nadie más. Porque cualquier pensamiento ajeno y cualquier conclusión derivada de él invadirían la libertad de “mi” pensamiento, al interferir con mi libertad de pensar por mi cuenta.
Se puede decir que, en relación con si la inteligencia artificial generativa realmente posee inteligencia, no conviene creer a la ligera que se trata de un ser inteligente; pero las lógicas forzadas que se ponen a la par de esa idea son simplemente bullshit.
¿Qué es el conocimiento…?
Si la inteligencia artificial en última instancia no puede tener alma, ¿hay alguna razón por la que su inteligencia deba parecerse necesariamente a la inteligencia humana que busca la verdad? Incluso muchas de las actividades que llamamos intelectuales se basan en mentiras y alucinaciones. Los seres humanos de la sociedad moderna también afectan la vida de otros con falsedades porque no perciben los fenómenos (o a propósito).
La verdad es que nunca pensé ni una sola vez que a Stallman le fueran a gustar los LLM jajajajaja
En Corea también los scooters están invadiendo las banquetas y causando el mismo problema social, así que supongo que con los robots de reparto también podría pasar. Aun así, como van a baja velocidad y no es probable que los abandonen ilegalmente, me parece que serían mejores que los scooters... Creo que primero debería regularse a los scooters.
La lección número 1 ya es importantísima.
Últimamente lo estoy sintiendo muchísimo jaja
Yo también pienso algo parecido... primero que nada, la Linux Foundation hace demasiadas cosas.
También se hace cargo de cosas abandonadas como Servo....
Anthropic dona MCP y funda Agentic AI Foundation
Los comentarios de Hacker News están recopilados por aquí, así que les recomendamos consultarlos también.
Visto así, el futuro se siente prometedor jaja
Acabo de verlo, y me parece que es una reacción nacida de la desconfianza hacia MCP en sí.
El matiz es algo como: "Aunque ahora se use mucho, ¿cuánto tiempo va a durar esto?".
Pero creo que, desde el momento en que Google y OpenAI apoyan MCP, este tipo de oposición es más bien una oposición por inercia.
Yo tampoco era muy fan al principio, porque me parecía un juego de palabras que no era tan distinto de Function Calling, pero al ver que las empresas lo estaban unificando pensé que entonces tendría sentido incluso desde la etapa de aprendizaje.
Aun así, me sorprende que todavía haya gente que simplemente siga oponiéndose.