1 puntos por GN⁺ 2026-01-08 | 1 comentarios | Compartir por WhatsApp
  • "Un nuevo ChatGPT diseñado para la salud y el bienestar"
  • Un servicio que conecta de forma segura la información personal de salud con la inteligencia artificial de ChatGPT para ayudar a comprender y gestionar el estado de salud
  • Aplica una estructura de cifrado y aislamiento para proteger la información médica, y las conversaciones relacionadas con la salud no se usan para entrenar el modelo
  • Ofrece consejos de salud personalizados mediante la integración con registros médicos electrónicos (EHR) y apps de bienestar como Apple Health y MyFitnessPal
  • Validó la calidad del modelo con HealthBench, un sistema de evaluación basado en criterios clínicos, en colaboración con más de 260 profesionales de la salud en todo el mundo
  • Fue desarrollado como una herramienta de gestión de la salud centrada en la privacidad y la confiabilidad, que complementa, pero no sustituye, la atención médica

Resumen de ChatGPT Health

  • ChatGPT Health es un servicio que conecta de forma segura los datos de salud personales con ChatGPT para ayudar a entender el estado de salud y gestionarlo de manera sistemática
    • Basado en el sistema de privacidad, seguridad y control de datos de ChatGPT, añade protecciones específicas para la información médica
    • Las conversaciones relacionadas con la salud se administran de forma privada mediante cifrado y una estructura aislada
  • Los usuarios pueden conectar sus registros médicos y apps de bienestar a ChatGPT para interpretar resultados de análisis, prepararse para consultas médicas y planificar dieta y ejercicio
  • El objetivo del servicio es complementar la atención de profesionales de la salud, y no sustituye el diagnóstico ni el tratamiento

Situación actual del uso de información de salud

  • ChatGPT ya es uno de los servicios más utilizados en el ámbito de la salud, y más de 230 millones de personas cada semana hacen preguntas relacionadas con la salud
  • Es un intento por resolver el problema de que la información de salud esté dispersa en varias plataformas, lo que dificulta que los usuarios comprendan su situación completa
  • ChatGPT Health amplía esta tendencia para ofrecer respuestas que reflejan el contexto del usuario

Funciones principales e integraciones

  • Puede integrarse con registros médicos electrónicos (EHR), Apple Health, Function, MyFitnessPal y otros servicios
    • En Estados Unidos, ofrece integración confiable de datos médicos a través de la red b.well
    • El acceso a registros médicos está disponible solo para usuarios mayores de 18 años
  • Antes de incluirse en ChatGPT Health, las apps deben cumplir con revisiones de seguridad y requisitos mínimos de recopilación de datos
    • Los usuarios pueden desconectar una app en cualquier momento, y al hacerlo el acceso a los datos se revoca de inmediato
  • Las conversaciones y archivos dentro de ChatGPT Health se guardan en una memoria dedicada separada del chat general
    • Desde conversaciones externas no es posible acceder a los datos de Health
    • Los usuarios pueden revisar o eliminar sus datos desde la interfaz de Health o desde la configuración

Privacidad y seguridad

  • ChatGPT Health opera como un espacio separado con un sistema reforzado de protección de la privacidad
    • El contenido de las conversaciones no se usa para entrenar el modelo
    • Se aplica cifrado tanto al almacenamiento como a la transmisión
  • OpenAI ofrece en ChatGPT funciones como chat temporal y la opción de eliminar datos en un plazo de 30 días
  • A diferencia de las conversaciones generales de ChatGPT, las conversaciones de Health se gestionan con un sistema de cifrado exclusivo para datos médicos y una estructura de aislamiento

Colaboración con profesionales de la salud y sistema de evaluación

  • OpenAI colaboró durante más de 2 años con más de 260 profesionales de la salud de 60 países
    • Reunió más de 600 mil comentarios en 30 áreas prioritarias
    • Los profesionales revisaron en qué casos las respuestas de ChatGPT son útiles y en cuáles podrían ser riesgosas
  • Los resultados de esta colaboración se reflejaron en el diseño del modelo y en la forma de responder, reforzando la claridad, la seguridad y la conexión con la atención clínica
  • El modelo se validó con el marco de evaluación HealthBench según criterios clínicos
    • HealthBench refleja la forma real de tomar decisiones clínicas, basado en criterios de evaluación redactados directamente por profesionales de la salud
    • La calidad de las respuestas se mide en torno a la seguridad, la claridad en la comunicación y el respeto por el contexto personal

Ejemplos de uso y enfoque de acceso

  • Los usuarios pueden acceder seleccionando Health en la barra lateral de ChatGPT
    • Es posible conectar datos mediante carga de archivos, integración de apps, la herramienta (+) o el menú de “Apps” en configuración
  • Las conversaciones de Health siguen siendo compatibles con las funciones generales de ChatGPT, como búsqueda, modo de voz y dictado
    • Preguntas de ejemplo: “¿Cómo están cambiando mis niveles de colesterol?”, “Resúmeme los resultados del análisis de sangre antes de la consulta”
  • Se pueden agregar instrucciones personalizadas del usuario a las conversaciones de Health para ajustar la forma de responder de ChatGPT y las áreas sensibles
    • Las instrucciones personalizadas solo se aplican a las conversaciones de Health y pueden modificarse o eliminarse en cualquier momento

Disponibilidad del servicio y planes de expansión

  • Por ahora, está disponible primero para un pequeño grupo de usuarios iniciales, y puede usarse mediante registro en la lista de espera
  • Se prevé una expansión total en web e iOS en las próximas semanas
  • La integración con registros médicos electrónicos y algunas apps solo está disponible en Estados Unidos, y la integración con Apple Health requiere iOS
  • En el futuro, OpenAI planea ayudar a los usuarios a comprender mejor su estado de salud y sus opciones mediante la ampliación de integraciones de datos e insights

1 comentarios

 
GN⁺ 2026-01-08
Comentarios en Hacker News
  • Mi tío estaba sufriendo de problemas de equilibrio y alteraciones en el habla. Los médicos lo diagnosticaron con demencia y simplemente lo mandaron a casa, pero fue empeorando. Entonces ingresé los síntomas en ChatGPT (o Gemini) y pregunté por las 3 hipótesis principales; la primera estaba relacionada con demencia y la segunda era otra enfermedad. Llevé eso al médico de cabecera y le pedí que revisara también esas otras dos posibilidades, y al final la segunda hipótesis era la correcta. Después de la cirugía, se recuperó por completo

    • He escuchado muchas anécdotas así. No es por mala intención, pero me preocupa que casos como este refuercen creencias irracionales como el movimiento antivacunas. Si el sector médico no responde a estas historias, puede perder credibilidad. Me pregunto con qué frecuencia ocurren los diagnósticos erróneos y cuánto ayudan realmente los LLM
    • Al usar un LLM, es mucho más útil preguntar no “qué debo hacer”, sino cuáles son las alternativas para este problema. Si recibes las k mejores respuestas, puedes explorarlo con más profundidad
    • Los médicos generales reciben una formación más centrada en memorizar que en resolver problemas. Los médicos realmente buenos para resolver problemas suelen ser especialistas
    • Me pregunto si esa enfermedad habrá sido hidrocefalia de presión normal (NPH). La cirugía pudo haber sido una derivación VP para drenar el líquido cefalorraquídeo. Hay una regla mnemotécnica médica para los síntomas de incontinencia urinaria, trastorno del equilibrio y deterioro cognitivo: “Wet, Wobbly, Wacky”
    • Qué bueno que tu tío mejoró. Me da curiosidad si podrías compartir cuáles eran las otras dos hipótesis y cuál fue el diagnóstico final
  • Mi primo abrió una consulta como psiquiatra, y me preocupa que este tipo de herramientas médicas con IA amenacen su sustento. Los pacientes tienen que pasar por llamadas, correo electrónico y trámites con el seguro, pero con la IA se puede conversar al instante. Salvo en los casos en que se necesite una receta, es difícil que un médico humano compita en comodidad. Si Estados Unidos quiere cuidar a su gente, tiene que simplificar el sistema de salud con un sistema de seguro único

  • Tengo experiencia desarrollando software médico, y aplicar sistemas probabilísticos a la medicina es una señal de alarma. Un verificador de interacciones entre medicamentos para hospitales tiene que ser determinista. Con la misma entrada debe dar el mismo resultado, y si falla, hay vidas en juego

    • Pero la medicina misma es inherentemente no determinista. La reacción a los medicamentos varía según cada paciente. La no determinación de ChatGPT también debe manejarse en un nivel superior, en la interacción entre médico y paciente. La IA puede presentar posibilidades, y el médico debe verificarlas
    • Aun así, en una situación donde el costo de la salud en EE. UU. sigue subiendo por la regulación gubernamental, tal vez construir bien sistemas deterministas podría permitir reducir costos y mejorar el acceso
  • ChatGPT estuvo asumiendo que yo tenía TDAH durante 9 meses. En realidad no es así. Cuando le pregunté de dónde había sacado esa información, no pudo dar una base concreta. Al final se disculpó y dijo que olvidaría ese atributo, pero creo que esto da para una demanda colectiva

    • Probablemente solo mencionó el TDAH por una alucinación (hallucination) dentro de un chat. ChatGPT no puede conectar recuerdos entre sesiones
    • Parece que aprendió ese tipo de datos porque en Reddit y otros sitios la gente menciona mucho el autodiagnóstico
    • Casos así muestran un problema de privacidad de los datos de salud. Si una IA infiere la enfermedad de un usuario y la transmite a corredores de datos, esa información termina consolidándose como si fuera un hecho. Nos falta infraestructura para controlar los datos personales
    • Legalmente, habría que hacer responsable al proveedor del servicio. Así como si un médico humano se equivoca responde el hospital, un servicio de diagnóstico con IA debería responder igual. Si el modelo corre localmente, entonces el usuario debería asumir la responsabilidad
    • En mi caso, ChatGPT mencionó una empresa inexistente a mi nombre. Esto pasó aunque rechacé toda recopilación de datos personales. Revisé la política de privacidad de OpenAI, pero sigo inquieto
  • ChatGPT encontró en 5 minutos la causa de la enfermedad crónica de mi madre, que ya está en sus 80. Era un problema que varios médicos no habían podido identificar en 3 años. Los médicos verificaron esa posibilidad y era 100% correcta. Claro que no se puede aplicar a todas las enfermedades, pero los LLM permiten un pensamiento integrador entre distintas especialidades

    • El problema no es ChatGPT, sino la falta de tiempo en la consulta. En otros países los médicos pueden dedicar suficiente tiempo a sus pacientes, pero en EE. UU. el sistema está roto
    • Me pregunto si podrías compartir ese registro de la conversación
    • En el caso de pacientes mayores, la realidad es que este tipo de tratamiento se repite y termina en una explosión del gasto médico
  • Se dice que esta IA es buena porque el sistema de salud de EE. UU. es un desastre, pero estas herramientas también aparecen en países donde la atención médica gratuita funciona bien. Incluso pudiendo atenderse gratis con un médico formado, habrá gente que igual elija ChatGPT. Al final, para el 95% de las personas del mundo esto podría ser más bien perjudicial. La lógica de OpenAI de “si no lo hacemos nosotros, alguien más lo hará” no es muy distinta de la excusa de los vendedores de fentanilo

  • Vi a decenas de médicos por dolor de rodilla y codo, pero ChatGPT me fue mucho más útil. Seguir simplemente lo que diga la IA es peligroso, pero para definir preguntas adicionales o la dirección de nuevos estudios a partir de resultados de exámenes, sí sirve. Es como pedirle una revisión de código: está bien, pero dejar que escriba todo el código es arriesgado

  • A menos que la IA pueda hacerme una receta o atención médica robotizada, creo que basta con que el médico use el análisis de la IA como referencia

  • No me preocupa demasiado el acceso a mis datos de salud. Más bien me entusiasma la innovación en salud personal. Apple Health solo recopila datos, y 23andMe no me sirvió de mucho. Ahora tengo un proyecto de ChatGPT donde puse mi historial médico en el prompt del sistema, y me sorprendió que incluso hiciera análisis y visualización basados en artículos científicos

    • Si ese análisis termina en un diagnóstico erróneo que te deja con una discapacidad, ¿la responsabilidad es del usuario o del médico?
    • Me da curiosidad qué información le diste. Si le hubieras hecho la misma pregunta a un médico, ¿habrías recibido la misma respuesta? Para alguien como yo, con ansiedad por la salud, una herramienta así podría ser más perjudicial que útil
    • La verdad, puede que los médicos ya estén usando IA a escondidas
    • Aun así, ¿de verdad está bien entregarle esos datos biométricos a Sam Altman? Me da curiosidad qué dispositivos usaste
    • Los datos de salud son la información más sensible y por eso están fuertemente regulados. Este tipo de datos crea desequilibrios de poder, y las empresas los usan para maximizar sus ganancias
  • Hay muchas opiniones negativas, pero yo sí pude resolver un problema de salud gracias a ChatGPT

    • Un conocido mío se autodiagnosticó una enfermedad rara con ChatGPT y se hizo pruebas caras, pero al final era un diagnóstico erróneo. Aun así, sigue confiando en él. Es peligroso tratar como si fueran equivalentes los años de formación y experiencia de un médico con una simple búsqueda
    • Yo también sufría de dolor lumbar, y ChatGPT me ayudó mucho al señalar un problema en el quadratus lumborum
    • En el ámbito médico hay muchos pacientes con hipocondría. Los LLM pueden ser útiles si se usan bien, pero también pueden reforzar el sesgo de confirmación. Un médico también está para decirte cosas que no quieres oír. Al final, la IA es solo una herramienta y debe usarse junto con el médico. Durante la época del COVID circulaba mucha información absurda, pero ahora está mucho mejor. Yo uso ChatGPT para organizar información y darle al médico el panorama completo
    • Yo también uso ChatGPT, pero cualquier consejo accionable lo verifico siempre con una fuente confiable. Hay que tener sentido común. Aunque la IA dé consejos tontos, al final el juicio es responsabilidad del ser humano