Exclusivo

Mala praxis médica e inteligencia artificial: una discusión impostergable

Mala praxis médica e inteligencia artificial: una discusión impostergable
Promueven la atención médica y la asistencia en salud.

La medicina atraviesa una transformación profunda impulsada por la incorporación progresiva de la inteligencia artificial (IA) en el diagnóstico, el tratamiento y la gestión clínica. En Panamá, esta realidad comienza a sentirse tanto en el sector público como en el privado, donde sistemas de apoyo diagnóstico, herramientas predictivas y plataformas de análisis de datos prometen mejorar la eficiencia y la precisión de la atención sanitaria. Sin embargo, junto con estas oportunidades surge una pregunta que el país aún no ha abordado con la seriedad necesaria: ¿cómo debe entenderse la mala praxis médica cuando las decisiones clínicas están influidas por algoritmos?

Durante décadas, la responsabilidad médica se ha evaluado a partir de un modelo relativamente claro, centrado en la actuación individual del profesional y en el respeto de la llamada lex artis. Este esquema fue diseñado para una medicina esencialmente analógica, en la que el juicio clínico dependía casi exclusivamente del conocimiento, la experiencia y la pericia del médico. No obstante, la práctica médica contemporánea es distinta. Hoy, los profesionales toman decisiones apoyados en tecnologías complejas que procesan grandes volúmenes de información y ofrecen recomendaciones basadas en patrones estadísticos.

El problema surge cuando estas herramientas fallan. Un sistema de inteligencia artificial puede sugerir un diagnóstico incorrecto, subestimar un riesgo o recomendar un tratamiento inadecuado. Cuando de ello se deriva un daño al paciente, las preguntas jurídicas se vuelven inevitables: ¿es responsable el médico por confiar en la herramienta? ¿Lo es la institución que la adquirió y la implementó? ¿Debe responder el desarrollador del software? ¿O estamos ante un riesgo inherente al uso de tecnologías emergentes? El marco normativo vigente en Panamá no ofrece respuestas claras frente a estos escenarios.

Este vacío revela una tensión estructural: seguimos juzgando la medicina del siglo XXI con criterios legales del siglo pasado. En la medicina digital, el error ya no es necesariamente el resultado de una acción u omisión individual. Puede ser consecuencia de un algoritmo mal entrenado, de una mala integración del sistema en el flujo clínico, de deficiencias organizacionales o de la ausencia de protocolos adecuados. El análisis clásico de causalidad, pensado para decisiones humanas aisladas, resulta insuficiente cuando interviene un entramado tecnológico complejo.

Ello obliga a repensar el concepto de mala praxis desde una perspectiva más amplia y realista. No se trata de diluir la responsabilidad profesional del médico, sino de reconocer que la atención en salud es hoy el producto de un sistema en el que interactúan personas, tecnologías e instituciones. Avanzar hacia un modelo de responsabilidad sistémica permitiría evaluar de manera más justa y efectiva los fallos en la atención médica, identificando no solo al profesional, sino también las condiciones estructurales que contribuyen al daño.

En el contexto panameño, este debate es especialmente relevante. El Ministerio de Salud y la Caja de Seguro Social impulsan procesos de modernización, digitalización de expedientes y uso creciente de tecnologías de información en salud. La adopción de herramientas basadas en inteligencia artificial es una consecuencia lógica de estas políticas. Sin embargo, dicha modernización debe ir acompañada de una actualización normativa y de capacidades institucionales acordes a la complejidad tecnológica que se introduce en los servicios de salud.

El desafío alcanza también al sistema de justicia. Jueces, fiscales y peritos se verán cada vez más enfrentados a casos en los que será necesario comprender principios básicos de evidencia científica digital, funcionamiento general de sistemas algorítmicos y gestión de riesgos clínicos. Analizar estos casos sin una mínima alfabetización tecnológica aumentará el riesgo de decisiones injustas o arbitrarias, en perjuicio tanto de los pacientes como de los profesionales de la salud.

Desde el punto de vista ético, existe una línea que no debe cruzarse. La inteligencia artificial carece de conciencia moral, empatía y responsabilidad jurídica. Puede asistir al médico, pero no reemplazar su juicio ni su deber ético. Por ello, resulta esencial reforzar el principio de supervisión humana significativa: el médico debe comprender las limitaciones del sistema, evaluar críticamente sus resultados, documentar su uso e informar al paciente cuando se utilicen herramientas automatizadas en su atención.

La inteligencia artificial no es una promesa futura, sino una realidad presente en la medicina panameña. La cuestión no es si surgirán conflictos legales asociados a su uso, sino si estamos preparados para afrontarlos con criterios modernos, equilibrados y justos. En la medicina que ya vivimos, la responsabilidad no recaerá únicamente sobre un individuo, sino sobre todo el sistema que rodea la atención del paciente. Reconocerlo a tiempo es una tarea impostergable.

El autor es patólogo forense y exdirector del Instituto de Medicina Legal y Ciencias Forenses.


LAS MÁS LEÍDAS

  • Canal de Panamá adjudica por $17.5 millones la construcción de carreteras en la cuenca del río Indio. Leer más
  • Más de 15 mil personas se han registrado en las primeras horas para el retiro de los Cepanim. Leer más
  • Las Agroferias del IMA estarán abiertas este jueves 23 de abril; lugares confirmados. Leer más
  • ¿Cuándo empieza la temporada lluviosa en Panamá 2026? Fechas estimadas por región. Leer más
  • Unachi en la mira: rectora se ausenta de la Asamblea y destapan deuda de $12 millones con la CSS. Leer más
  • Envían de vacaciones al secretario de la ATTT tras derogación de decreto de ‘apps’ de transporte. Leer más
  • Cepanim: más de 300 mil intentaron registrarse; MEF normaliza plataforma tras intermitencias. Leer más