- Desarrollado para responder a las preocupaciones en el ámbito educativo sobre si ChatGPT realmente ayuda a aprender o solo entrega respuestas
- A través de guía paso a paso e interacción, en lugar de dar respuestas directas apoya el proceso de aprendizaje
- Ajusta las preguntas guiadas según los objetivos y el nivel de habilidades, promoviendo una comprensión profunda y la reflexión mediante participación e interacción
- En colaboración con docentes, científicos y especialistas en pedagogía, incorpora instrucciones de sistema personalizadas basadas en la ciencia del aprendizaje, como fomentar la participación activa, gestionar la carga cognitiva, la metacognición y la autorreflexión
- Incluye diversas funciones educativas, como clases personalizadas, cuestionarios de verificación de conocimientos, retroalimentación y seguimiento del progreso
- Sigue mejorando continuamente con base en comentarios reales de estudiantes de universidad y educación superior, y planea agregar funciones como visualización, seguimiento de objetivos y personalización avanzada**
Funciones principales
- Prompts interactivos: combina preguntas socráticas, pistas y autoevaluación para motivar a pensar por cuenta propia
- Respuestas con apoyo adicional: ofrece información paso a paso considerando la conexión entre temas y reduce la carga cognitiva excesiva
- Apoyo personalizado: evalúa el nivel técnico, recuerda conversaciones anteriores y ofrece clases adaptadas al usuario
- Verificación de conocimientos: cuestionarios, preguntas abiertas y retroalimentación personalizada para seguir el progreso y fortalecer la memoria y la capacidad de aplicación
- Flexibilidad: se puede activar o desactivar el modo Study en cualquier momento durante la conversación
Probarlo en ChatGPT
1 comentarios
Opiniones en Hacker News
Creo que los LLM están subestimados como compañeros de estudio, porque te dejan hacer preguntas “tontas” sin vergüenza. Un modo que no solo da respuestas cortas, sino que explica paso a paso con calma, de verdad se siente como magia. Es como tener un asistente competente disponible 24/7, así que me parece una herramienta soñada para estudiar por tu cuenta. Antes había muchas dificultades: información inexacta y desactualizada en internet, falta de retroalimentación y comunidades bruscas. Ahora la experiencia está años luz de aquella época. Claro, eso no significa que haya que creerle ciegamente a la IA; hace falta verificar por cuenta propia. Habrá gente que la use con flojera, pero igual que con libros viejos o textos escolares, cuánto ayuda depende de la actitud de cada quien. Me emociona y me asombra muchísimo vivir en una época en la que podemos usar herramientas así
Estoy de acuerdo en que hace unos años aprender algo por internet era difícil por la desinformación, las respuestas malintencionadas y la falta de retroalimentación inmediata. Pero hoy con la IA uno siente que tiene que dudar cada vez si la respuesta está bien o si se la está inventando. Me ha pasado muchas veces que da respuestas incorrectas a preguntas basadas en hechos. Y cuando señalas ese problema, siempre te dicen que el modelo más nuevo ya mejoró, pero a cambio piden una suscripción cara. Peor aún, la IA cede demasiado fácil cuando le discutes una respuesta. No sabe defender lo que dijo, y no creo que esa sea una cualidad deseable en un profesor. Al final la IA solo es una herramienta útil, pero no hay que confiarse demasiado, así que siempre hace falta un escepticismo sano. En realidad, creo que eso también aplica a la educación tradicional
El modo que explica el material paso a paso es atractivo, pero siento que estos sistemas todavía tienen el problema de mentir con total seguridad. Por ejemplo, hay un easter egg en el que el logo de DuckDuckGo cambia según lo que busques, pero si le preguntas a Copilot te dice que no. Y si lo contradices, de repente dice que sí y hasta inventa ejemplos absurdos, como explicar que si buscas gatos aparece un logo con forma de gato. El problema con Copilot es que no sabe una respuesta clara, pero en vez de decir “no sé”, responde con falsedades
Siento que el miedo a hacer preguntas tontas es algo muy real. Sobre todo si antes te lastimó un maestro o profesor que humillaba a los estudiantes. Incluso he dejado de ver clases de profesores famosos después de ver videos donde hacían pasar vergüenza a sus alumnos
Si uno ve la adopción previa de TI en las escuelas, en Estados Unidos se han gastado decenas de miles de millones en educación y aun así no mejoraron los resultados reales de aprendizaje. Ese es el trasfondo del escepticismo. También pienso que antes de gastar 100 mil millones de dólares, primero hay que demostrar que de verdad funciona. Por ahora, mi postura es que todavía no hay evidencia decisiva
Tengo nivel B1 de español, y con ChatGPT estoy creando lecciones personalizadas, preguntando por matices del idioma y hasta practicando con voz. La experiencia de aprendizaje ha sido muchísimo mejor que con las apps tradicionales
Puedo decir con total seguridad que los LLM han sido una herramienta increíblemente poderosa para aprender por mi cuenta cosas nuevas después de graduarme de la universidad. Antes, si no entendías un concepto, básicamente no había ninguna respuesta a la vista, y si no era una pregunta común en Stack Exchange, tenías que arreglártelas solo. Ahora es como tener un asistente de cátedra personal disponible en cualquier momento. Hay críticas de que aprender así se vuelve demasiado fácil o superficial, pero casi nadie diría que un universitario aprende mejor sin un TA
En lo personal, por mi experiencia, no siento que sea como tener un TA siempre disponible para todo el mundo. En cuanto entras un poco en profundidad, el LLM deja de servir casi de inmediato. Sobre todo si necesitas fuentes académicas confiables o si estás tratando temas complejos y debatidos, ahí ayuda todavía menos
Hace poco, al reparar e investigar un equipo viejo con un CPU Intel de 9ª generación del año 2020, el LLM me explicó fácilmente información sobre cada generación y la compatibilidad de sockets, al grado de que sentí que no merecía tener una herramienta tan cómoda. En algunas áreas no sirve mucho, pero en otras de verdad sorprende
Desde que salió ChatGPT, sentí como si hubiera recuperado el Google de antes. Antes, cuando aprendía un lenguaje de programación nuevo, encontraba información importante fácilmente en Google, pero desde hace algunos años Google dejó de servir. Incluso cuando la información que quiero sí existe, queda enterrada entre los resultados
ChatGPT me armó un plan de estudio adaptado a mí y me animó a escribir apuntes y artículos, y así aprendí Rust en 12 semanas. Con ese proceso hice https://rustaceo.es en español a partir de mis apuntes, y siento que el potencial de este enfoque es infinito
Antes sufrí mucho porque no entendía un problema de IPv6 en mi casa, pero gracias a ChatGPT pude analizar el tráfico con
tcpdumpy recibir una explicación paso a paso de cómo funcionaba la red. También aprendí detalles nuevos sobre RA y NDP (que reemplazan el papel de DHCP y ARP en IPv4). Al final incluso descubrí que las anomalías repetidas en mi red mesh WiFi se debían a un repetidor barato. Llevaba 5 años frustrado sin saber la causa, y por fin lo resolvíExtraje el prompt del sistema de ChatGPT Study Mode. Me llamó la atención una instrucción del tipo: “No des una respuesta inmediata a la pregunta del usuario ni le resuelvas la tarea. En problemas de matemáticas/lógica, no los resuelvas enseguida; haz preguntas paso a paso y dale oportunidad al usuario de responder en cada etapa”. enlace al gist
Ojalá cada proveedor de LLM también añadiera una instrucción para responder “de forma concisa y sin relleno”. Soy un lector lento, así que me cuesta tener que leer explicaciones innecesarias. A veces respuestas que llegan demasiado rápido y en exceso hasta me generan ansiedad. Creo que eso también podría reducir problemas de contexto
Es curioso que las mayúsculas (CAPS) realmente tengan significado para los LLM
Me pregunto qué pasaría si aplicas este prompt a otros modelos. Tengo curiosidad por saber si ChatGPT Study Mode consiste solo en un prompt de sistema especial o si hay algo más. He probado aprendizaje profundo sobre temas con prompts parecidos y sentí efectos positivos
Es interesante que estas instrucciones internas se puedan revelar tan fácilmente. OpenAI parece haber querido mantener privado el prompt del sistema, pero como cualquiera puede acceder al contenido con facilidad, hace pensar que el resultado fue intencional
Yo también extraje un prompt de sistema parecido, y pueden verlo en este enlace
Como aprendiz de por vida, siento que una gran parte del tiempo de estudio se va en buscar materiales. La IA parece ayudar mucho a hacer esa búsqueda más eficiente. En cambio, cuando se trata de construir el modelo lógico del tema que estás aprendiendo, depender de la IA puede hacer que en realidad no seas tú quien aprende, sino que solo reúnes las “inclusiones” de la IA, y entonces sin la IA ya no puedes sacar el resultado. Creo que es importante guardar en tu propio cerebro un modelo coherente y offline
Estoy de acuerdo en que “gran parte del estudio es búsqueda”. Hubo una época en la que la habilidad de buscar era en sí misma muy importante, y durante el proceso también aprendías conocimientos relacionados pero inesperados. Me da un poco de lástima pensar que la siguiente generación podría perder esa habilidad
Creo que el objetivo mismo de Study Mode no es darte la respuesta correcta, sino guiarte en el proceso para que la encuentres por tu cuenta. Mucha gente, en realidad, no conoce bien esa forma de aprender
Delegar la comprensión es una actitud peligrosa a largo plazo, y hay que mantener una higiene del pensamiento propia
También es una gran ventaja que la IA pueda encontrar asociaciones novedosas que no se detectan solo con palabras clave
Me gustaría validar con precisión la efectividad de Study Mode mediante un ensayo aleatorizado con grupo de control. Quiero saber si realmente ayuda a los estudiantes, si supera al aprendizaje autodirigido y cuál es la diferencia entre equivocarse por cuenta propia y recibir guía repetida sobre un concepto. Ojalá Study Mode pudiera separar automáticamente información útil para usarla con flashcards y spaced repetition (herramientas de repaso, por ejemplo Mochi, Anki). Por cierto, también recomiendo esta charla de Andy Matuschak
En realidad, Study Mode no ofrece la función que mencionas arriba. El objetivo de inversión es hacer que el estudiante diga “sin Study Mode no habría aprendido nada”, y en el proceso lograr que cargue sus materiales de estudio para resumirlos y aprovecharlos como datos propios
Ya existe un artículo de investigación sobre tutores de IA con un efecto parecido que fue demostrado. Según este artículo, la mejora de aprendizaje del grupo con tutor de IA fue más de dos veces superior a la del grupo de active learning en clases reales
También hay estudios que dicen que los LLM ralentizan a los desarrolladores experimentados. Supongo que algo parecido puede pasar con el aprendizaje autodirigido. Pero los LLM sí hacen que aprender sea más divertido, y eso da motivación para no rendirse y seguir intentando. Si estudias con gusto, aunque avances un poco más lento, al final puedes aprender más durante más tiempo con constancia. A fin de cuentas, en el aprendizaje gana más quien persevera que quien corre, y creo que los LLM hacen eso más posible
Tengo curiosidad por los estudios sobre el efecto de la tutoría en universidades de élite. Por mi experiencia, muchos estudiantes de universidades prestigiosas reciben de los tutores no ayuda real, sino simplemente respuestas correctas, incluso dejándoles hacer la tarea, y así se convencen de que aprendieron algo. En realidad, el aprendizaje genuino ocurre cuando uno se pierde, se equivoca y tiene dudas. Pero el uso de LLM se parece a eso: en cuanto algo se pone difícil o se atora, recurren de inmediato a ChatGPT para saltarse el ensayo y error y llegar directo a la solución. Luego se sienten inseguros en los exámenes y cada vez exigen más ejercicios de práctica. Siento muy de cerca que ha aumentado el número de estudiantes que ni siquiera pueden leer por su cuenta el libro de texto después de clase
Puede hacer una gran diferencia para estudiantes que ya tienen mucha motivación, pero no hay tantos así, y últimamente parece que esa proporción sigue bajando por la pérdida de capacidad de concentración
Una persona que conozco dirige una startup educativa basada en OpenAI. Cuando empresas grandes como OpenAI entran al mismo mercado, los desarrolladores pequeños y medianos pueden quedar en desventaja en cualquier momento. Por eso me da miedo construir un negocio que dependa de estos modelos, y creo que hay que acercarse con mucha cautela
Me pregunto si en los inicios de la tecnología también existía la idea de que las empresas de hardware inevitablemente terminarían copiando el software, empaquetándolo por su cuenta y compitiendo contra las empresas de software. Se siente muy parecido a lo de ahora. Mucha gente cree que las empresas proveedoras del modelo siempre tendrán ventaja sobre quienes construyen encima, pero yo todavía no encuentro una base sólida para afirmarlo
Como el negocio de hosting de LLM cobrando por token cada vez deja menos margen, se vuelve muy evidente que las grandes empresas quieren copiar (Sherlock) todas las startups y apps que muestren potencial de crecimiento
Si eres desarrollador en un área adyacente a los LLM, creo que siempre hay que tener esto presente. Viendo el poder de expansión de mercado y el capital de las grandes empresas, siento que al final existe el riesgo de que nosotros simplemente desaparezcamos de forma natural
Me pregunto por qué los emprendedores no ven venir esto. Está clarísimo que OpenAI nunca pensó quedarse solo como proveedor simple de LLM, sino entrar a muchos más mercados
Es natural que exista riesgo, así que lo importante es el valor real que agregamos. Si es un negocio de oportunidad, hay que moverse rápido; si quieres durar, necesitas hacer algo más original que algo que cualquiera pueda hacer de inmediato
La estrategia central de mi aprendizaje con LLM es estudiar principalmente con libros, y usar el LLM solo para soluciones oficiales, preguntas de contexto y verificación de comprensión. Cosas como descifrar la notación matemática de un dominio nuevo o hacer preguntas de contexto sobre textos de filosofía del idealismo alemán son exactamente el tipo de duda con la que me habría perdido muchísimo sin un LLM, y ahora me las aclara enseguida, ahorrándome mucho tiempo. En especial, algo clave al estudiar es verificar de inmediato mi nivel de comprensión. Antes avanzaba con malentendidos y luego tenía que regresar. Ahora puedo ordenar mi intuición sobre una fórmula o un concepto y pedirle al LLM que la revise; incluso si solo me responde “es un poco distinto”, ya sé que debo volver a revisar ese punto. Al final, los libros siguen siendo lo mejor porque tienen la mayor densidad de información, pero con apoyo de un LLM puedes acelerar muchísimo el ritmo
Siento que hace mucha falta la interfaz correcta para todo esto. Study Mode escribe la información como un muro de texto y la mezcla con ejemplos y preguntas, pero no hay forma de ver una respuesta ligada a una pregunta concreta. La interfaz de chat no es adecuada para esta forma de uso. Hace falta una interfaz separada, tipo canvas/artifact, donde preguntas y respuestas estén conectadas y el contenido tenga estructura. Tengo la impresión de que ahora mismo estamos metiendo demasiadas cosas dentro de una interfaz conversacional demasiado simple
De hecho, cuando un estudiante dice que quiere aprender teoría de juegos completa, queda muy claro que ambas partes están asumiendo una única sesión de chat y un proceso lineal. Al final eso no es aprendizaje profundo
Lo intenté con periplus.app. No es perfecto, pero definitivamente ofrece una UX distinta a la del chat
Hay muchas ideas de UX. Por ejemplo, permitir evaluar el nivel de comprensión en cada explicación, dar más detalle solo en las partes que no se entendieron, mostrar la estructura del conocimiento como un árbol, usar gráficos manipulables, quizzes interactivos y más. Tal vez eso se salga del alcance de ChatGPT, pero creo que ahí hay una oportunidad para que otras apps o startups ataquen ese espacio
Creo que la interfaz correcta no existe. Si de verdad tienes voluntad y esfuerzo para aprender, al final se puede aprender de cualquier forma: rollos, libros, ebooks, IA, lo que sea
El hecho de que esto no sea una función básica sino un “producto aparte” dice mucho de la época en que vivimos. Es algo que cualquier LLM podría hacer con una simple combinación de prompts. Dicen que Study Mode fue desarrollado en colaboración con profesores, científicos y expertos en psicología educativa, pero dudo que realmente hayan participado expertos de verdad
Ahorita estoy aprendiendo Janet, y usar ChatGPT como tutor me resulta incómodo. Incluso con una pregunta como “si
localyvarson ambos variables locales, ¿cuál es la diferencia?”, responde cosas como “qué buena pregunta, captaste muy bien la esencia”, y luego solo sigue con una alucinación plausible. Es un buen tutor cuando sabe, pero creo que debería conocer sus propios límitesLos LLM tienden a dar respuestas realmente buenas solo para ejemplos muy conocidos, como React todo list, bootstrap form o vue tic-tac-toe
En casos así, aconsejo más bien meter toda la guía o la documentación en el contexto directamente
Lo comparan con OpenAI y con empresas que recibieron dinero sólido: parece un tutor que necesita demasiado el dinero