Sobrescribir enlaces de ayuda a la navegación
La adopción precipitada de sistemas de inteligencia artificial en la salud puede perjudicar a los pacientes
La agencia sanitaria mundial advierte de los riesgos de esas herramientas si no han sido lo suficientemente probadas y llama a examinarlas y supervisarlas con rigor cuando se utilicen para que su uso sea seguro, eficaz y ético.
La adopción precipitada de sistemas no probados de inteligencia artificial en el campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes, alertó este martes la Organización Mundial de la Salud (OMS), instando al uso ético y a una gobernanza adecuada de esas herramientas.
La OMS destacó la necesidad de preservar la salud pública y proteger y promover el bienestar, la seguridad y la autonomía humanas al utilizar modelos de lenguaje generados por la inteligencia artificial, llamando a examinarlos exhaustivamente antes de su aplicación y a vigilarlos una vez que se pongan en práctica.
De otra manera, añadió el organismo, sus consecuencias negativas erosionarán la confianza en la inteligencia artificial y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.
La agencia de la ONU explicó que los modelos de lenguaje generados por la inteligencia artificial incluyen plataformas de rápida expansión como ChatGPT, Bard y Bert entre muchas otras que imitan la compresión, el procesamiento y la producción de la comunicación humana.
La OMS reconoció las ventajas que puede suponer uso adecuado de la inteligencia artificial para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos; sin embargo, planteó con preocupación la falta de cautela que caracteriza su uso y que no es comparable a la que se ejerce con otras nuevas tecnologías.
Los riesgos
Al referirse a los principales riesgos del uso de esas herramientas, la Organización Mundial de la Salud enumeró los siguientes:
• Los datos utilizados para las bases que nutren la inteligencia artificial pueden estar sesgados y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión
• Los modelos de lenguaje generados por inteligencia artificial producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero éstas pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud
• Los modelos de lenguaje generados por inteligencia artificial pueden recibir información sobre datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática
• Los modelos de lenguaje generados por inteligencia artificial se pueden utilizar indebidamente para generar y difundir desinformación sobre la salud en forma de contenido de texto, audio o video difícil de diferenciar del contenido confiable
Transparencia y supervisión experta
La OMS insistió en que el proceso de análisis de las herramientas de inteligencia artificial debe contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.
Si bien señaló que el rubro sanitario puede aprovechar las nuevas tecnologías para mejorar la salud humana, recomendó que los responsables de elaborar las políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los modelos de lenguaje generados por inteligencia artificial.
“Es imperativo que se examinen cuidadosamente los riesgos cuando se usen modelos de lenguaje generados por la inteligencia artificial para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad”, recalcó la OMS en un comunicado.
También propuso que se mida la evidencia clara del beneficio antes del uso generalizado de esas herramientas en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.
Como lo describe en su guía sobre ética y gobernanza de la inteligencia artificial en el campo de la salud, la OMS reiteró que se debe proteger la autonomía; promover el bienestar humano, la seguridad humana y el interés público; garantizar la transparencia y la inteligibilidad; fomentar la responsabilidad y la rendición de cuentas; garantizar la inclusión y la equidad; y proteger la autonomía al diseñar, desarrollar y aplicar la inteligencia artificial con el fin de que su uso sea confiable y sostenible.