Uso seguro y ético de la Inteligencia Artificial para la salud en hospitales

06 Mar 2024

Inteligencia Artificial en atención médica

La Inteligencia Artificial está revolucionando la atención médica en el mundo, pero su implementación presenta desafíos que no deben dejarse pasar: debe ser segura, ética y legal.

La Inteligencia Artificial (IA) está cada vez más presente en nuestra vida diaria. Más allá de robots o máquinas, la IA se utiliza en herramientas como asistentes virtuales, análisis de imágenes médicas y desarrollo de medicamentos. Su implementación dentro del sector hospitalario avanza hacía el mismo camino. Su uso en la atención médica en hospitales se ha convertido en una herramienta para mejorar el diagnóstico, la prevención y el tratamiento de enfermedades.

 

La OMS ha identificado seis principios éticos (World Health Organization, 2021) claves para el uso de la Inteligencia Artificial en la salud:

 

Proteger la Autonomía Humana: El médico siempre tendrá la última palabra en el tratamiento del paciente, incluso cuando se haya utilizado la Inteligencia Artificial durante el proceso. La responsabilidad puede ser asegurada mediante la aplicación de la "garantía humana", que implica la evaluación por parte de pacientes y profesionales clínicos en el desarrollo y despliegue de las tecnologías de Inteligencia Artificial.

 

Promover el Bienestar Humano y la Seguridad: La Inteligencia Artificial no debe causar daño a las personas. Por ejemplo, si se utiliza un modelo de IA para identificar lesiones pulmonares, debe tener un alto grado de precisión para evitar diagnósticos incorrectos que puedan perjudicar al paciente. 

 

Asegurar la Transparencia y la Explicabilidad: Las tecnologías de Inteligencia Artificial deben ser comprensibles para desarrolladores, profesionales médicos y pacientes. Por ejemplo, si se utiliza un algoritmo de IA para determinar la dosis de medicamentos, este debe explicar claramente cómo llega a sus recomendaciones.

 

Fomentar la Responsabilidad y la Rendición de Cuentas: Los seres humanos deben ser responsables de los resultados emitidos, y debe ser claro quiénes son las personas involucradas. Por ejemplo, si se implementa un sistema de Inteligencia Artificial para el seguimiento de pacientes crónicos, debe haber un mecanismo de supervisión continua por parte de profesionales de la salud.

 

Asegurar la Inclusión y la Equidad: La Inteligencia Artificial debe ser accesible para todos. Por ejemplo, si se utiliza la IA en el área de urgencias, debe estar disponible para todas las poblaciones, independientemente de su género, ingresos, raza o ubicación geográfica. 

 

Promover una Inteligencia Artificial Responsable y Sostenible: La IA debe ser evaluada de manera continua y actualizada constantemente. Por ejemplo, si se implementa un sistema de IA para asignar salas de quirófano acorde a las características del paciente, el sistema debe ser reentrenado y mantenerse vigente una vez implementado. 

 

Te puede interesar: Siemens Healthineers y CHRISTUS MUGUERZA anuncian sinergia para uso de Inteligencia Artificial, en favor de la salud. 

 

La Importancia del Aspecto Legal 

Es importante abordar los aspectos legales relacionados con el uso de la IA en hospitales. Las leyes de protección de datos y la responsabilidad profesional deben ser claras y estar en conformidad con las regulaciones existentes y mucho más importante, aquellas que deben ser establecidas en corto tiempo.

 

La privacidad de los datos de los pacientes, los derechos humanos y el cumplimiento de las leyes relacionadas a ello son esenciales. Los hospitales deberán establecer protocolos y políticas estrictas para abordar situaciones de responsabilidad y brindar protección a pacientes y profesionales de la salud, así como nuestras autoridades deberán asumir la responsabilidad de responder a los nuevos retos que se presentarán en el campo de la atención médica.

 

En México ya se realizan algunos esfuerzos en relación con la regulación del uso de Inteligencia Artificial. Las iniciativas presentadas buscan crear un marco regulatorio que garantice su uso seguro y ético, bajo los estándares internacionales que ya existen.

 

La IA tiene un enorme potencial para mejorar la atención médica, pero su implementación debe ser cuidadosa y responsable. Asegurar su seguridad, ética y legalidad es fundamental para construir un futuro donde la IA beneficie a todos.

 

Puedes leer el artículo completo aquí.

 

AUTORES

Melissa Torres Melissa Torres Vega, Directora de Asuntos Jurídicos en CHRISTUS MUGUERZA
Omar Nevárez Omar Nevárez Prieto, Gerente de Salud Digital en CHRISTUS MUGUERZA