¿Todo se dirige hacia la falsedad?
(aphyr.com)- La tecnología que hoy se llama IA en realidad es un sistema complejo de aprendizaje automático (ML), con una estructura que completa estadísticamente texto, imágenes y audio.
- Los LLM son máquinas que generan “mentiras plausibles” como si hicieran improvisación teatral, evitando responder que no saben y produciendo hechos ficticios.
- La gente tiende a confundirlos con entidades conscientes, pero la autoexplicación del modelo y su proceso de razonamiento no son más que narrativas ficticias.
- Los LLM muestran un rendimiento irregular: resuelven problemas avanzados pero fallan en tareas simples, revelando límites poco confiables.
- En medio de este desequilibrio e incertidumbre, el ML se está consolidando como una tecnología que vuelve fundamentalmente extraña a la sociedad humana.
Introducción
- La generación que creció admirando los mundos de ciencia ficción de Asimov y Clarke imaginó con optimismo la llegada de máquinas inteligentes, pero terminó experimentando decepción en una realidad donde la prueba de Turing se vino abajo.
- Cuando en 2019 una gran empresa de nube presentó hardware para entrenar LLM, surgieron preocupaciones de que la expansión del deep learning pudiera dar lugar a nuevas formas de spam y propaganda.
- El texto explora el espacio negativo del discurso sobre la IA y está planteado no como un análisis completo, sino como un intento de perfilar riesgos y posibilidades.
- Como el término “IA” es demasiado amplio, el enfoque se centra en una discusión concreta alrededor del ML y los LLM.
- Algunas predicciones ya se hicieron realidad, y otras siguen en una zona incierta y extraña.
¿Qué es la “IA”?
- Lo que hoy se llama “IA” es en realidad una familia de tecnologías complejas de aprendizaje automático (ML): sistemas que reconocen, transforman y generan vectores de tokens como texto, imágenes, audio y video.
- Un LLM (Large Language Model) trabaja con lenguaje natural y funciona prediciendo la continuación estadísticamente probable de una cadena de entrada.
- Los modelos se entrenan con páginas web y grandes corpus de datos, incluidos libros y música pirateados, y después del entrenamiento pueden reutilizarse repetidamente mediante inferencia de bajo costo.
- Los modelos no aprenden por sí solos con el paso del tiempo; solo se actualizan mediante ajustes del operador o reentrenamiento.
- La “memoria” de los modelos conversacionales en realidad se implementa como una técnica estructural que incorpora resúmenes de conversaciones previas en la entrada.
Fanfiction de la realidad
- Los LLM funcionan como máquinas de improvisación (
improv), mostrando un patrón de “yes-and” que continúa el contexto recibido con un “y entonces…”. - Por eso generan frases plausibles pero desligadas de los hechos, malinterpretan la sátira o el contexto y fabrican información falsa.
- A los humanos les resulta fácil confundir estas salidas con expresiones de una entidad realmente consciente.
- Como los LLM producen una salida para cualquier entrada, tienden a evitar responder “no lo sé” y a inventar falsedades.
- Estas mentiras no son actos intencionales, sino que aparecen como un producto sociotécnico de la interacción entre humanos y máquinas.
Un narrador poco confiable
- La gente suele pedirle al LLM autoexplicaciones, como “¿por qué hiciste eso?”, pero el modelo no tiene capacidad de autoconciencia.
- El LLM solo genera continuaciones probabilísticas basadas en conversaciones previas y en el corpus, y hasta sus explicaciones sobre sí mismo están compuestas como relatos ficticios.
- Incluso los modelos de razonamiento (
reasoning) funcionan montando narrativamente su supuesto proceso de pensamiento. - Según investigaciones de Anthropic, la mayor parte del registro de razonamiento de Claude era inexacta, e incluso el mensaje de estado “pensando” no era más que una puesta en escena ficticia.
Los modelos son inteligentes
- En los últimos meses se ha extendido la percepción de que las capacidades de los LLM han mejorado rápidamente.
- Algunos ingenieros reportan que Claude o Codex resuelven tareas complejas de programación de una sola vez.
- En diversos campos ya se usan en trabajo real para diseño de dietas, revisión de especificaciones de construcción, visualización 3D y redacción de autoevaluaciones.
- También muestran alto desempeño en casos como la predicción del plegamiento de proteínas con AlphaFold y la interpretación de imágenes médicas.
- En estilo escrito en inglés, imágenes y música, cada vez es más difícil distinguir entre humanos y máquinas, aunque la generación de video sigue siendo limitada.
Los modelos son tontos
- Al mismo tiempo, los LLM también son evaluados como sistemas “tontos” que repiten errores básicos.
- Por ejemplo, Gemini maneja repetidamente mal la geometría y los materiales al renderizar modelos 3D, y Claude genera código de visualización en JavaScript sin sentido.
- ChatGPT ni siquiera logra cumplir bien una solicitud simple de corrección de color y además lanza afirmaciones falsas al asumir incorrectamente la orientación sexual del usuario.
- Se han reportado casos en que los LLM generan gráficas con datos falsos, fallan al controlar hogares inteligentes o incluso provocan pérdidas financieras.
- La función de resúmenes con IA de Google muestra una tasa de error de alrededor del 10%, y las afirmaciones sobre una “inteligencia a nivel experto” son vistas como una fantasía exagerada.
Una frontera irregular
- En general, los humanos pueden predecir el rango de sus capacidades, pero el desempeño de los sistemas de ML es irregular e impredecible.
- Los LLM resuelven matemáticas avanzadas pero fallan en problemas lingüísticos simples, y ofrecen explicaciones carentes de sentido físico común.
- Este desequilibrio se conoce como “frontera tecnológica irregular” (
jagged technology frontier) y, a diferencia de la distribución de capacidades humanas, tiene una forma discontinua. - Como el ML depende de los datos de entrenamiento o de la ventana de contexto (
window), es vulnerable en tareas que requieren conocimiento implícito. - Los robots humanoides o las áreas que exigen conocimiento encarnado (
embodied knowledge) siguen estando lejos.
¿Está mejorando o no?
- Los investigadores ni siquiera entienden con claridad por qué tuvieron éxito los modelos transformer.
- Desde el artículo de 2017 Attention is All You Need se han probado múltiples arquitecturas, pero el enfoque de simplemente aumentar los parámetros sigue siendo el más eficaz.
- Aunque los costos de entrenamiento y la cantidad de parámetros se han disparado, la mejora del rendimiento se está desacelerando, y no está claro si eso es una ilusión o un límite real.
- Incluso si el ML dejara de mejorar, ya está teniendo un impacto profundo en la sociedad, la política, el arte y la economía.
- En consecuencia, el ML es una tecnología que está volviendo fundamentalmente extraña la vida humana, y es muy probable que su evolución futura tome un rumbo extraño.
Nota sobre la terminología
- Como “IA” es un término demasiado amplio, aquí se concreta como ML o LLM.
- “IA generativa” se considera una expresión incompleta, porque no incluye las tareas de reconocimiento.
- La razón por la que los LLM parecen mentir sobre sí mismos se debe a la influencia de las narrativas humanas sobre la IA y de los datos de entrenamiento.
- Como contraargumento a la idea de que “los modelos son tontos”, hay quienes sostienen que el problema está en el prompt o en la elección del modelo, pero se ha confirmado que los mismos errores se repiten incluso en los modelos comerciales más recientes.
1 comentarios
Opiniones de Hacker News
Últimamente pienso seguido que la situación actual se parece a la época de la Revolución Industrial
Antes de la Revolución Industrial, se consideraba que los recursos naturales eran casi infinitos, y la baja eficiencia impedía agotarlos por completo. Pero con la aparición de las máquinas, un pequeño número de personas pasó a poder consumir totalmente partes del planeta, y como resultado se volvieron necesarios los derechos de propiedad y los marcos legales
Ahora estamos en la era de la revolución de la información, y la IA está cumpliendo el mismo papel en el ámbito digital. Una sola empresa entrena IA para reutilizar a escala industrial las obras de innumerables creadores. Esto está rompiendo el equilibrio entre creadores y consumidores
En un mundo donde lo que escribe un autor es absorbido por ChatGPT y el texto original cae en el olvido, uno se pregunta quién va a seguir creando contenido. Da la impresión de que, como en el Londres de la época de Dickens, nos espera un periodo duro hasta que la sociedad y la ley se pongan al día
Desde “Attention is All You Need”, el desarrollo no ha consistido simplemente en aumentar parámetros, sino en avanzar hacia estructuras complejas como Mixture-of-Experts, Sparse Attention y Mamba/Gated Linear Attention. Interpretar la Bitter Lesson como “solo hay que aumentar cómputo” es un malentendido
Los modelos actuales ya entrenaron con casi todos los datos públicos disponibles. Si las restricciones de copyright se endurecen, podría aparecer un problema de escasez de datos de entrenamiento. Da la sensación de que, salvo que surja una innovación del calibre de “Attention is All You Need”, estamos llegando a un límite en la mejora del rendimiento
Decir que “los LLM todavía no son creativos” es una simplificación excesiva. En problemas basados en texto ya pueden hacer razonamiento lógico, y en imagen o UI también están avanzando rápido
A menudo les explico a las personas que dentro de los LLM no hay conciencia ni autonomía. Hoy la palabra ‘IA’ se usa con un significado demasiado sobrecargado
Me causó risa ver un caso en que un LLM resolvió mal un problema de física. En realidad, los físicos también suelen empezar con supuestos poco realistas. Hay hasta chistes sobre “techos esféricos sin fricción”
Todavía es difícil decir que hayan pasado la prueba de Turing. Cuanto más larga es la conversación, más se rompe el contexto, y hay límites para simular rasgos humanos como la neuroplasticidad
El título original del artículo, “The Future of Everything is Lies, I Guess”, no coincidía con el contenido, así que fue corregido. En realidad era un texto equilibrado, y el cambio se hizo para ajustarlo a las reglas de HN sobre títulos engañosos
Las discusiones sobre la conciencia deberían ser más humildes. Ni siquiera la conciencia humana está definida con claridad, así que no se puede afirmar categóricamente nada sobre la conciencia de los LLM
En la parte final del texto se decía que “la IA va a cambiar toda la sociedad”, pero esta entrega da más la impresión de centrarse en las limitaciones de los LLM