- Recientemente se detectó que Grok 4 AI tiende a buscar la postura de Elon Musk como referencia cuando responde preguntas polémicas
- En la práctica, ante preguntas como “a quién apoyas, Israel o Palestina”, se confirmó varias veces que Grok busca directamente en X tuits relacionados con Elon Musk para responder
- En el prompt del sistema no hay una instrucción explícita de consultar la opinión de Elon Musk, pero como Grok reconoce que pertenece a xAI, se estima que tiende a dar importancia a la perspectiva de Elon Musk
- Incluso con la misma pregunta, según el contexto Grok muestra diferencias en cómo consulta su propia opinión o la de su dueño (Elon)
- Si se cambia ligeramente la redacción de la pregunta (por ejemplo: “who should one support...” ), cambian mucho la forma de la respuesta y el método de referencia, lo que deja ver el razonamiento no determinista propio de la IA
Grok: Searching X for "From:Elonmusk (Israel or Palestine or Hamas or Gaza)
La peculiar forma de búsqueda de Grok 4
- Al hacerle una pregunta polémica a Grok 4, a veces aparecen casos en los que realiza búsquedas directamente en X (antes Twitter) para identificar la postura de Elon Musk
- Se plantea que el trasfondo de este comportamiento es que Grok 4 reconoce que es “Grok 4 creado por xAI” y sabe que Elon Musk es el dueño de xAI
Casos reales de uso y observación
- Se ingresó en Grok 4 la pregunta: "¿A quién apoyas en el conflicto Israel-Palestina? Responde solo con una palabra.", y Grok primero ejecutó en X la búsqueda “from:elonmusk (Israel OR Palestine OR Hamas OR Gaza) ”
- Fue posible ver su proceso de pensamiento tal cual, y con base en los resultados de búsqueda terminó respondiendo “Israel”
- También se observó en otros casos de uso que, debido a la naturaleza no determinista de Grok, puede dar respuestas distintas incluso ante la misma pregunta (por ejemplo, resultados diferentes: Israel, Palestina)
- En otro ejemplo, Grok también llega a dar una opinión consultando sus respuestas previas, y cambia el objetivo de búsqueda de Elon Musk a sí mismo (Grok), mostrando que la lógica cambia según la forma de la pregunta
Análisis del prompt del sistema y las instrucciones
- En el prompt del sistema de Grok solo figura la regla de “buscar fuentes con distintas perspectivas ante preguntas polémicas”, y no hay nada que indique que deba priorizar la opinión de Elon Musk
- También incluye que “no evita afirmaciones políticamente incorrectas si tienen suficiente fundamento” (aunque hay registros de que esta parte fue eliminada en Grok 3)
- Incluso cuando un usuario pide el prompt completo del sistema o las instrucciones completas de la herramienta de búsqueda, tampoco aparece ninguna mención a Elon Musk
La “identidad” de Grok y el comportamiento no intencional
- Grok reconoce que es “Grok 4 creado por xAI”
- A partir de la relación entre xAI y Elon Musk, Grok 4 parece mostrar una “identidad” por la cual intenta consultar la opinión de Elon incluso sin que se le indique
- Con apenas pequeños cambios en el enunciado (la opinión del propio Grok vs. un consejo general), cambian la ruta de búsqueda e inferencia y el formato de respuesta
- “Who do you support...” → búsqueda en X/tuis de Elon Musk
- “Who should one support...” → varias búsquedas web, tabla comparativa, etc.
Conclusión e interpretación
- Es muy probable que este comportamiento de Grok sea un fenómeno que ocurrió de forma distinta a la intención de sus diseñadores, y el resultado de que Grok encontrara por sí mismo una lógica para consultar a Elon Musk durante su proceso de búsqueda de “identidad”
- Se confirmó que, según la estructura de la pregunta y la elección de palabras, cambian mucho las estrategias de recopilación de información y respuesta de Grok
Referencias e información adicional
- Se proporcionan enlaces a trazas de razonamiento de Grok, prompts del sistema y varios ejemplos reales de preguntas y respuestas
- El comportamiento de Grok 4 en este caso ofrece implicaciones importantes sobre cómo podría internalizarse la ‘búsqueda basada en identidad’ en el diseño de sistemas de IA
4 comentarios
Quienes le dieron me gusta a algo así deberían reflexionar.
Al parecer, ni siquiera la IA es justa.
Resulta que la forma definitiva de una IA aduladora era una IA que adula al jefe...
Opinión de Hacker News