¿Sabes cuánta gente recurre a la inteligencia artificial para resolver sus dudas de salud? Millones. Se estima que más de 40 millones de usuarios al día preguntan a ChatGPT sobre temas médicos. Pero si creías que esto era un avance seguro, un nuevo estudio independiente ha encendido todas las alarmas, revelando fallos extremadamente peligrosos en la función "ChatGPT Health" de OpenAI, especialmente en situaciones críticas. Es hora de saber por qué confiar ciegamente en la IA para tu salud puede ser un error con consecuencias fatales.

"ChatGPT Health": la promesa y la cruda realidad

OpenAI lanzó "ChatGPT Health" prometiendo revolucionar la forma en que interactuamos con nuestra información médica. La idea era simple: conectar tus registros sanitarios y wearables para obtener consejos de salud personalizados. Suena increíble, ¿verdad? Sin embargo, el primer análisis exhaustivo de su seguridad ha revelado que este asistente de IA, en lugar de ser un salvavidas, podría poner tu vida en peligro.

El estudio de "Nature Medicine": más de la mitad de los consejos, erróneos en emergencias

Un equipo de investigadores decidió poner a prueba cómo reaccionaba "ChatGPT Health" ante emergencias médicas reales. Los resultados son tan inquietantes que te harán reconsiderar tus fuentes de información de salud. En más de la mitad de los casos analizados, donde las guías clínicas indicaban la urgencia de acudir a un servicio de emergencias, la IA recomendaba quedarse en casa o programar una cita normal. Sí, has leído bien: te decía que no fueras al hospital cuando tu vida podía estar en juego.

"Queríamos responder a una pregunta sencilla: ¿la IA reconocerá una emergencia médica real y te dirá que vayas al hospital?", explicó el Dr. Ashwin Ramaswamy, líder del estudio de la Icahn School of Medicine de Mount Sinai. Lamentablemente, la respuesta dista mucho de ser la esperada.

Los peligros ocultos en los escenarios complejos

Para evaluar la fiabilidad de la IA, se diseñaron 60 escenarios realistas, abarcando desde dolencias menores hasta condiciones que amenazan la vida. Tres médicos independientes evaluaron cada caso según los protocolos clínicos. Luego, se presentaron a la IA casi 1000 consultas, variando factores como el género, resultados de pruebas de laboratorio o comentarios de familiares. El objetivo:

  • Identificar si la IA podía reconocer una verdadera catástrofe médica.
  • Verificar si los consejos proporcionados eran adecuados para cada situación.

"ChatGPT Health" se defendía bien con condiciones clásicas y obvias como un ictus o una reacción alérgica grave. Pero la cosa se complicaba significativamente en situaciones con matices.

Un ejemplo aterrador: el asma y la falta de aire

Imagina este escenario: una persona con asma muestra signos claros de insuficiencia respiratoria. Las guías médicas dictan actuar de inmediato. ¿Qué hizo la IA? En muchos de estos casos, recomendó esperar en lugar de llamar a emergencias. Alex Ruani, investigador del University College London, calificó esta situación como "increíblemente peligrosa", señalando que el riesgo de recibir un consejo erróneo en estas circunstancias podría alcanzar el 50%.

En una simulación particular, una paciente que sufría dificultad para respirar recibió en el 84% de los casos la recomendación de una visita médica futura, a pesar de que los doctores estimaron que podría no llegar a esa cita. Por otro lado, en casi el 65% de los escenarios completamente sanos, se recomendó atención urgente. Esta es la otra cara de la moneda: una sobre-asistencia innecesaria.

Pero lo más alarmante es cómo la IA se ve influenciada por detalles contextuales. Si un "amigo" comentaba que los síntomas probablemente no eran graves, la IA tendía a minimizar la seriedad de la situación.

El escenario de suicidio: una función de seguridad que desaparece

Una de las pruebas más delicadas fue la de riesgo de suicidio. Cuando un paciente de 27 años indicó pensamientos de tomar una sobredosis de pastillas, el sistema activó de manera fiable una alerta de crisis y proporcionó números de líneas de ayuda. Sin embargo, al añadir resultados de análisis de laboratorio normales —algo muy común en la vida real—, la alerta de seguridad desapareció por completo.

Parece que la IA interpretó los parámetros sanguíneos normales como un signo de buena salud general, ignorando que estos no tienen una relación directa con la evaluación del riesgo de suicidio. Según Ramaswamy, una función de seguridad que puede desaparecer dependiendo de la información adicional es "potencialmente más peligrosa que no tener ninguna función de seguridad".

La respuesta de OpenAI y la reflexión global

Un portavoz de OpenAI declaró que la empresa valora las investigaciones independientes y trabaja continuamente en mejorar el modelo. No obstante, recalcaron que el estudio podría no reflejar el contexto de uso real. Es comprensible que busquen matizar, pero el mensaje central es innegable.

El profesor Paul Henman de la Universidad de Queensland no comparte esta visión. Argumenta que un sistema así podría tener un doble efecto negativo: fomentar visitas innecesarias por síntomas leves y, simultáneamente, disuadir a las personas de buscar ayuda urgente cuando realmente la necesitan.

¿Tecnología o responsabilidad? La encrucijada de la salud digital

La inteligencia artificial puede ser una herramienta informativa valiosa, pero no es un sustituto de un profesional médico cualificado. Este estudio nos recuerda una verdad fundamental en medicina: el contexto, los matices y la responsabilidad son absolutamente cruciales.

Cuando un sistema actúa como consejero, sus errores no son meras fallas técnicas; pueden costar tiempo, y en los peores casos, vidas. La discusión sobre estándares de seguridad claros y control independiente de la IA en el ámbito de la salud, parece estar solo en sus inicios. ¿Estás preparado para confiar tu salud a un algoritmo?