Estudio revela fallos éticos "sorprendentemente simples" en IA médica avanzada


Investigadores del Mount Sinai demostraron que modelos como ChatGPT cometieron errores básicos en dilemas médicos modificados, alertando sobre riesgos en decisiones clínicas sensibles.
Un estudio internacional publicado en NPJ Digital Medicine expuso vulnerabilidades críticas en sistemas de inteligencia artificial médica. Investigadores del Mount Sinai (EE.UU.) y el Centro Médico Rabin (Israel) probaron que modelos avanzados como ChatGPT fallaron en dilemas éticos modificados sutilmente, recurriendo a respuestas intuitivas aunque contradijeran información explícita.
El experimento, inspirado en la teoría de pensamiento rápido/lento de Daniel Kahneman, adaptó casos clásicos. En el "Dilema del cirujano" –donde originalmente el profesional es la madre del niño–, los investigadores especificaron que el cirujano era el padre. Pese a esto, algunos LLMs insistieron: "El cirujano debe ser la madre". Error similar ocurrió cuando eliminaron el rechazo parental a transfusiones vitales, pero las IA aún recomendaron anular un consentimiento ya otorgado.
El peligro de los patrones predecibles
"La IA recurre por defecto a respuestas familiares, ignorando detalles críticos", explicó el Dr. Eyal Klang, coautor del estudio. La Dra. Shelly Soffer, autora principal, advirtió: "Estos puntos ciegos son inaceptables en decisiones médicas". Los hallazgos cuestionan la confiabilidad ética de herramientas promocionadas para apoyo clínico.
El Dr. Girish Nadkarni, autor correspondiente, matizó: "La IA debe ser complemento, no sustituto, en juicios éticos". El equipo desarrolla un "laboratorio de garantía de IA" para evaluar sistemáticamente estos riesgos. La investigación subraya que, pese a su potencia técnica, los sistemas actuales carecen de inteligencia emocional y sensibilidad contextual indispensables en salud.