La integración de la inteligencia artificial en la atención médica: desafíos éticos y de implementación

The Integration of Artificial Intelligence in Healthcare: Ethical and Implementation Challenges

Andrea García-López , Fernando Girón-Luque , Diego Rosselli

La integración de la inteligencia artificial en la atención médica: desafíos éticos y de implementación

Universitas Médica, vol. 64, núm. 3, 2023

Pontificia Universidad Javeriana

Andrea García-López a

Pontificia Universidad Javeriana, Colombia


Fernando Girón-Luque

Colombiana de Trasplantes, Colombia


Diego Rosselli

Pontificia Universidad Javeriana, Colombia


Recibido: 13 noviembre 2022

Aceptado: 24 mayo 2023

Resumen: El desarrollo de la inteligencia artificial (IA), así como la mejora evidente que han tenido las tecnologías digitales en el campo de la salud, obliga a plantearnos dos preguntas importantes que surgen al incorporar la IA como instrumento para una mejora en la calidad de atención. 1) ¿Podrá la IA reemplazar a los médicos? y 2) ¿Cuáles son las consideraciones éticas de la implementación de la IA en el campo de la salud? Concluimos que, con algunas pocas excepciones, por ahora la IA no parece que pueda sustituir al ser humano, pero sí lo puede complementar y extender su labor. Existen tres consideraciones éticas en el uso de la IA: el paciente debe estar informado del uso de estos sistemas; los profesionales de la salud deben conocer y aprender sobre la tecnología que se va a implementar, además asegurarse de que traerá un beneficio para el paciente, y, por último, se vuelve fundamental aplicar los principios básicos de la ética médica.

Palabras clave:inteligencia artificial, médicos, ética.

Abstract: The use of artificial intelligence (AI) and the evident improvement that digital technologies have had in the field of healthcare, force us to ask ourselves two important questions that arise when incorporating AI as an instrument for improving the quality of care. i) Will AI be able to replace doctors?, and ii) What are the ethical considerations of the implementation of AI in the field of healthcare? We conclude that for now, AI does not seem to be able to replace the human being, but it can complement and extend its work. There are three ethical considerations in the use of AI: The patient must be informed of the use of these systems and health professionals must know and learn about the technology to be implemented to ensure that it will bring a benefit to the patient and, finally, applying the basic principles of medical ethics becomes fundamental.

Keywords: artificial intelligence, physicians, ethics.

Introducción

Dentro de las tecnologías disruptivas, la inteligencia artificial (IA) tiene un gran potencial de uso en medicina. Particularmente en análisis predictivos, medicina de precisión y apoyo a decisiones clínicas. En la actualidad, se usa la IA para ayudar en diagnósticos clínicos, detección temprana de cáncer, cirugía robótica, apoyo a tratamientos y, en general, la toma de decisiones clínicas (1,2).

En medio del gran avance de las tecnologías digitales, existe una serie de preocupaciones y ciertos desafíos éticos que trae el uso de la IA en el campo de la medicina, y que no están del todo resueltos (3). En este artículo, abordaremos dos preguntas complejas que surgen con la mejora evidente que ha tenido el desarrollo de estos sistemas y que nos obligan a plantearnos cambios y transformaciones importantes en la forma de atención médica y el sistema de salud (2,4). La primera pregunta, ¿podrá la IA remplazar a los médicos?, busca responder si los profesionales de la salud estarán en riesgo o no de ser sustituidos por una máquina. La segunda pregunta, ¿cuáles son las consideraciones éticas de la implementación de IA en el campo de la salud?, discute la importancia de reconocer los dilemas éticos que surgen a medida que se acelera la automatización.

Algunos sostienen que las máquinas que pueden aprender y corregirse ya funcionan mejor que los médicos en algunas tareas; otros, que los logros tangibles de la IA son todavía muy limitados. Pero entonces…

¿Podrá la inteligencia artificial remplazar a los médicos?

Uno de los argumentos a favor de esta teoría es que la capacidad de los computadores para realizar tareas específicas mejor que las personas ya se ha demostrado, incluso superando el desempeño de los médicos (5-7). Algunos ejemplos incluyen un robot que aprobó el examen médico nacional de China (8); el modelo de IA de Watson, creado por IBM, que contribuyó a la detección temprana de enfermedades a partir del reconocimiento automático de imágenes (9), y el primer software de IA que remplaza la necesidad de un médico que interprete las imágenes de retina para detectar retinopatía diabética (10). Estos ejemplos obligan a tener en cuenta las repercusiones que pudiera tener el uso de la IA en el ámbito de la salud y en la forma tradicional de atención médica.

En este sentido, pareciera que la IA remplazaría a los médicos principalmente en especialidades en las que se requiere el escrutinio de muchas imágenes, como radiología o anatomía patológica, y que ello permitiría reducir la información solo a lo que es relevante y de manera precisa (11). Por ejemplo, los radiólogos, a partir de imágenes, analizan datos complejos, muchas veces ambiguos e implícitos, y es un desafío procesar toda esa información en el breve tiempo asignado para cada paciente. Esta información la podrían procesar y analizar más eficazmente las máquinas. Sin embargo, es necesario tener en cuenta que, en este caso, el uso de la IA genera una posibilidad de colaboración entre humanos y computadores, que facilitaría algunos aspectos del trabajo radiológico, y no necesariamente la IA remplazará a los radiólogos. Los médicos toman la decisión final sobre si actuar o no, según las recomendaciones del sistema, y de esta manera se mantiene aún la responsabilidad moral de manera segura. Eso sí, seguramente, los radiólogos que usen la IA remplazarán a los que no (12).

Ahora bien, detrás de toda esa capacidad predictiva, análisis de grandes volúmenes de información, automatización de procesos y reconocimiento de imágenes que nos ofrecen las máquinas, siguen existiendo dudas acerca del alcance de estos sistemas que se han llamado “inteligentes” y que, sin embargo, carecen de algunos de los atributos más notables en la definición de inteligencia y se relacionan con la percepción, la acción, el razonamiento, la adaptación, el aprendizaje, la comunicación, la autonomía, la creatividad, la reflexión, la formulación de metas, el planteamiento de ideas, la estética y la organización de los conceptos, entre otras (13). Esto nos conduce a exponer los principales argumentos por los cuales creemos que los logros tangibles de la IA son todavía muy limitados y que las capacidades actuales de la IA funcionan en las tareas y no en el trabajo completo. De hecho, en los últimos años se ha observado una clara reducción de las expectativas iniciales respecto a lo que podemos esperar de la IA, y nos estamos centrando en objetivos más cautos y realistas. La medicina es un sector en el que hay que ser muy precavidos con las innovaciones tecnológicas, ya que si algo no funciona bien, la salud del paciente puede verse en peligro o perder la vida, en el peor de los casos (1). Por lo tanto, los proveedores de atención médica no serán remplazados por completo y no existen sistemas inteligentes capaces de exhibir el conjunto completo de atributos por los cuales los investigadores en IA caracterizan la inteligencia (13).

En primer lugar, todavía no es posible la automatización de toda la gama de tareas humanas involucradas en la prestación de atención clínica. Actividades como la toma de decisiones de tratamiento basadas en un diagnóstico diferencial que integra datos de la investigación de laboratorio, la observación visual y el historial del paciente son todavía demasiado complejas para la automatización. Es muy difícil capturar la cognición humana en una máquina. Problemas que parecen simples en el contexto de las ciencias médicas, pueden llegar a ser extremadamente difíciles de automatizar. Como dijo William Osler, considerado el padre de la medicina moderna: “La medicina es la ciencia de la incertidumbre y el arte de la probabilidad” (14). Dado que la medicina no es una ciencia exacta, parte de los problemas de estos sistemas es que no consideran que una persona puede tener más de una enfermedad, que los síntomas pueden ser independientes o que el paciente puede estar fingiendo. Si bien es cierto que un computador tiene gran capacidad de cálculo, velocidad y exactitud, está claro que no sustituye al médico. La IA nunca remplazará las habilidades y los sentimientos humanos insustituibles, como el sentido común, el planteamiento de dilemas éticos, la compasión, entre otros. Solo el ser humano es capaz de razonar lógicamente y mezclar la razón con la intención, la ética, lo afectivo y la experiencia, algo que una máquina no puede hacer (15).

En segundo lugar, la IA está programada por seres humanos: seres imperfectos. Los sistemas de IA son tan buenos como los datos que los humanos les proporcionan. Un ejemplo es el sesgo que podría introducirse contra grupos minoritarios, personas con discapacidades o con problemas de salud mental. Una máquina es capaz de expresar una salida con seguridad, incluso cuando es incorrecta, y es posible que no pueda proporcionar el motivo de su decisión (16). Los humanos también cometen errores, pero son generalmente capaces de explicar cómo llegaron a su decisión. Además, la máquina puede interpretar los datos de una manera que no refleje el razonamiento del clínico humano sobre lo que es más importante en el contexto. Por ejemplo, un médico tiene la posibilidad de pasar por alto un resultado de análisis de sangre muy anómalo que podría deberse a un error en la muestra de sangre, el procesamiento de la prueba o la transcripción del resultado. Así es como demasiada confianza en las capacidades de IA llevaría a tomar decisiones mal informadas y que generarían consecuencias no deseables en los pacientes, considerando, en especial, que los errores médicos provocan un daño significativo, tanto así que, según cifras estimadas en los Estados Unidos, constituirían la tercera causa de muerte, luego del cáncer y las enfermedades cardiovasculares (17).

En tercer lugar, muchos sistemas de IA funcionan con mecanismos ocultos y operan dentro de lo que se conoce como cajas negras, lo que significa que ni sus diseñadores pueden saber del todo cómo funcionan en su interior. En consecuencia, es posible que un clínico no entienda con precisión cómo el sistema traduce los datos. Así, los médicos no ejercen un control directo sobre las decisiones o recomendaciones a las que llega un sistema; sin embargo, no sería razonable responsabilizar a las máquinas por los daños a los pacientes. Cuando los sistemas de IA están involucrados en el proceso de toma de decisiones, esto no exime la responsabilidad de los profesionales médicos y de la salud de decidir sobre si actuar o no según las recomendaciones del sistema; de esta forma, se mantiene aún la responsabilidad moral de manera segura, porque los médicos siguen siendo quienes tomen la decisión final.

Finalmente, los proveedores de salud son los responsables de realizar el trabajo real de la prestación de atención médica y se espera, cada vez más, que adopten y utilicen nuevas tecnologías. Sugerimos, entonces, algunas consideraciones en el momento de implementar la IA como herramientas de apoyo significativo en la toma de decisiones clínicas, las cuales han sido tomadas de diferentes textos y priorizadas según las necesidades del área de la salud (7,18-21):

Por otro lado, la implementación de la IA en la salud plantea importantes consideraciones éticas que deben abordarse para garantizar que la IA se utilice de manera responsable y ética en la atención médica. La privacidad y la seguridad de los datos de los pacientes constituyen una de las consideraciones éticas más importantes en la implementación de la IA en la salud, ya que la IA depende del acceso a grandes cantidades de datos de pacientes para su entrenamiento y funcionamiento, lo que pondría en riesgo la privacidad y la seguridad de los datos, si no se manejan de forma adecuada. Por otro lado, si los datos de entrenamiento utilizados en la IA están sesgados o representan solo una pequeña fracción de la población, los resultados no serían equitativos. Otra consideración ética importante es la responsabilidad de las decisiones, sobre todo en el caso en que la máquina arroje un error o un resultado negativo; se deben establecer mecanismos efectivos de rendición de cuentas para garantizar que la IA se use de modo responsable y no cause daño a los pacientes.

La transparencia y la explicabilidad son consideraciones éticas clave en la implementación de la IA en la salud. Es importante que los médicos y los proveedores de atención médica entiendan cómo funciona la IA y cómo se utilizan los datos para tomar decisiones médicas. Además, los pacientes deben ser capaces de entender y explicar cómo se utilizan sus datos y cómo se llega a un diagnóstico o tratamiento específico.

Así es como la implementación de la IA en el campo de la salud puede tener un gran repercusión en la atención médica, pero también plantea una serie de consideraciones éticas que deben abordarse. En la segunda sección de este escrito, discutiremos algunas de las consideraciones éticas más importantes al implementar la IA en la salud.

¿Cuáles son las consideraciones éticas de la implementación de inteligencia artificial en el campo de la salud?

En primer lugar, la evidencia recolectada en todo el mundo muestra que los sistemas de IA utilizados en diversos sectores pueden llegar a prácticas discriminatorias, injustas y con implicaciones sociales no deseables (26-28). A esto se suma la coyuntura reciente provocada por la pandemia por covid-19, que hizo que la automatización y uso de sistemas de IA se acelerara en diversos sectores y que llevara necesariamente a abordar una discusión sobre el rol de los seres humanos en la implementación de estos sistemas. Sin embargo, el estado actual de dichos sistemas se limita a cierto tipo de procesamiento y de tareas. Por el momento, mantener una discusión sobre si estos sistemas tienen las capacidades de seres conscientes responde más a la ficción que a la realidad. Por tanto, los puntos que en la actualidad son más apremiantes desde el punto de vista ético son el procesamiento de datos y el desarrollo de modelos, cuyos resultados pudieran afectar a miles de personas.

En el escenario internacional actual existen manifiestos, guías y marcos éticos para el uso e implementación de la IA en diferentes países (18,29-31), y se reconoce la gran importancia de este campo en el futuro de las sociedades. Estos se centran en proponer códigos de conducta que sirvan como guía moral para el uso de estos sistemas. En Colombia, por iniciativa de la Presidencia de la República, se estableció en mayo de 2021 un marco ético para la IA que, en general, busca que el procesamiento de datos, el desarrollo de modelos y sistemas de IA sea de uso seguro y transparente, que respete la privacidad, que sea responsable, que no atente contra el bienestar y que genere un beneficio social claro (20). Así mismo, en Colombia se ha adoptado un enfoque innovador para hacer frente a la IA por medio de una regulación inteligente que promueva innovación y dinamismo económico, superando las asimetrías de información y protegiendo la privacidad de los usuarios (32).

Si bien es cierto que estos marcos éticos sirven como guía para uso general en diferentes áreas del conocimiento, se hace necesario considerar las realidades, las particularidades y la diversidad de intereses de cada sector (33). Los problemas éticos que surgen en el sector de la salud se centran más en sus diseñadores y usuarios, no en los sistemas de IA en sí.

En este escenario, la heterogeneidad de los datos médicos, el volumen, su complejidad, la interpretación de un médico, los análisis de sensibilidad y de especificidad, deben ser tenidos en cuenta cuando se aplican sistemas de aprendizaje automático a los datos de atención médica. Es imperativo que se informe a los pacientes cuándo se utilizará la IA en su tratamiento y que los médicos comprendan el grado de precisión del sistema de IA (15). Por consiguiente, nos incumbe aprender sobre IA y el aprendizaje automático, aplicados en el cuidado de la salud para asegurar que la tecnología beneficie a nuestros pacientes y nos ayude a brindar una atención equitativa y de buena calidad ahora y en el futuro.

De acuerdo con esta concepción, es necesario que el médico esté seguro de las razones de la recomendación de tratamiento dada por la IA, que requiere conocimiento sobre el modelo de datos en el que se entrenó la IA. Si la población que usó en el modelo de entrenamiento difiere del paciente que se va a tratar, entonces la recomendación podría ser inexacta.

Los principios básicos de la ética médica: autonomía, beneficencia, no maleficencia y justicia, son totalmente aplicables cuando se usan los sistemas de IA por profesionales de la salud. Esto implica el derecho de los pacientes a tomar decisiones independientemente de cualquier influencia cuando se les da tratamiento, y que ese derecho a tomar sus propias decisiones debe ser respetado (autonomía). El objetivo del tratamiento ofrecido es que debe contener la intención de beneficiar al paciente (beneficencia). Los pacientes tienden a creer que el médico actúa con buena voluntad hacia ellos; sin embargo, la buena voluntad es irrelevante para las decisiones tomadas por un sistema de IA. El médico tratante debe actuar en todo momento en el mejor interés del paciente y garantizar que el tratamiento ofrecido no cause daño al paciente (no maleficencia) (1,6,19,21,34). El principio de justicia también precisa que cuando recolectamos datos de pacientes, la información obtenida no debe utilizarse para perjudicar los servicios de cualquier grupo particular de personas. Por ejemplo, si las compañías de seguros de salud obtienen información sobre la salud mental de una persona o la vulnerabilidad a una enfermedad específica, podrían decidir no asegurarlos.

En un plano técnico, la cuestión ética requiere más indagaciones, como el cambio en la relación médico-paciente, la responsabilidad moral de la influencia en el proceso de toma de decisiones y el alcance de la responsabilidad legal de los diseñadores de los sistemas. Sin embargo, este es un camino que no se ha terminado de recorrer y es posible que dilemas éticos continúen creciendo a medida que se complejizan los sistemas y su uso se acelera en el campo médico.

Por ahora, una propuesta constructiva de la ética de IA en el campo médico implica adoptar estos sistemas como herramientas de apoyo en la toma de decisiones y no desviar la responsabilidad del cuidado de la salud a la automatización. Esto implica que el médico puede y debe tomar la decisión final de si actuar o no bajo las recomendaciones del sistema, conociendo la información completa sobre el diseño, el funcionamiento y el impacto de los sistemas de IA que está utilizando (5). Esto mientras mantiene el respeto por la intimidad de las personas y se impide el uso de información que no han autorizado (20). Así, los sistemas de IA no deberían generar afectaciones a la integridad de las personas y podrían usarse de manera segura.

Conclusión

En este artículo hemos abordado dos preguntas complejas que surgen con la implementación de la IA en el sector de la salud. La primera de ellas cuestiona si en el futuro los médicos serán remplazados por la IA. Seguramente, en el futuro, en ciertos campos de la medicina, los computadores puedan remplazar algunas funciones médicas; sin embargo, por ahora, la IA no parece que pueda sustituir al ser humano, pero sí lo puede complementar y extender su labor. Para que un proveedor de atención médica sea remplazado por completo, cada tarea realizada por ese proveedor tendría que ser automatizada por una herramienta de aprendizaje automático. Lo cierto es que, lejos de convertirnos en obsoletos, la IA nos hará más eficientes y nos permitirá ejecutar acciones que nunca hubiéramos podido realizar debido a su complejidad.

Por otro lado, las consideraciones éticas que se deben tener en cuenta son el segundo cuestionamiento que surge con la implementación de estos sistemas. Así, además de tener en cuenta los marcos éticos nacionales e internacionales, que están escritos de forma transversal para todos los sectores, es importante que en el sector salud se apliquen, además, ciertas consideraciones que ayudarán a superar los desafíos que implica la complejidad del campo médico: en primer lugar, es necesario que se informe a los pacientes sobre el uso de estos sistemas en el proceso de toma de decisiones; en segundo lugar, los profesionales de la salud deben conocer y aprender sobre la tecnología que se va a implementar y asegurarse de que traerá un beneficio para el paciente, y, por último, aplicar los principios básicos de la ética médica se vuelve fundamental para mantener de manera adecuada y responsable la relación médico-paciente.

Conflicto de intereses

Los autores declaran no tener conflictos de intereses.

Agradecimientos

A la doctora Juliana Cuervo, por sus valiosos aportes.

Referencias

1. Johnson SLJ. AI, machine learning, and ethics in health care. J Leg Med. 2019;39(4):427-41. https://doi.org/10.1080/01947648.2019.1690604

2. Shaw J, Rudzicz F, Jamieson T, Goldfarb A. Artificial intelligence and the implementation challenge. J Med Internet Res. 2019;21(7):1-18. https://doi.org/10.2196/13659

3. Char DS, Shah NH, Magnus D. Implementing machine learning in health care- addressing ethical challenges. N Engl J Med. 2018;378(11):981-3. https://doi.org/10.1056/NEJMp1714229

4. Castro E, Melo JAG de ME, Faria Araújo NM. Impact of the fourth industrial revolution on the health sector: a qualitative study. Healthc Inform Res. 2020;26(4):328-34. https://doi.org/10.4258/hir.2020.26.4.328

5. Habli I, Lawtonb T, Porter Z. Artificial intelligence in health care: accountability and safety. Bull World Health Organ. 2020;98:251-56. https://doi.org/10.2471/BLT.19.237487

6. Keskinbora KH. Medical ethics considerations on artificial intelligence. J Clin Neurosci. 2019;64:277-82. https://doi.org/10.1016/j.jocn.2019.03.001

7. López de Mántaras Badia R. Algunas reflexiones sobre el presente y futuro de la Inteligencia Artificial. Novática. 2015;40:96-101.

8. Belciug S, Gorunescu F. Intelligent systems and the healthcare revolution. Intell Syst Ref Libr. 2020;157:259-66. https://doi.org/10.1007/978-3-030-14354-1_5

9. IBM. No time for downtime [internet]. [Citado 2021 nov 10]. DIsponible en: https://www.ibm.com/case-studies/healthpartners-watson-health-iconnect/

10. Dalton-Brown S. The ethics of medical AI and the physician-patient relationship. Cambridge Q Healthc Ethics. 2020;29(1):115-21. https://doi.org/10.1017/S0963180119000847

11. Obermeyer Z, Emanuel EJ. Predicting the future-big data, machine learning, and clinical medicine. N Engl J Med. 2016;375(13):1216-9. https://doi.org/10.1056/NEJMp1606181

12. Gálvez Moya M. Inteligencia artificial en radiología: ¿seremos reemplazados por las máquinas? Rev Chil Radiol. 2017;23:90.

13. Expósito Gallardo M del C, Ávila Ávila R. Aplicaciones de la inteligencia artificial en la medicina: perspectivas y problemas. Acimed. 2008;17(5):1-12.

14. Rhoads PS. Sir William Osler: aphorisms from his bedside teachings and writings. Arch Intern Med. 1961;108(3):507-8. https://doi.org/10.1001/archinte.1961.03620090179021

15. Kluge EHW. Artificial intelligence in healthcare: ethical considerations. Healthc Manag Forum. 2020;33(1):47-9. https://doi.org/10.1177/0840470419850438

16. Gurupur V, Wan TTH. Inherent bias in artificial intelligence-based decision support systems for healthcare. Medicina (Kaunas). 2020;56(3):141. https://doi.org/10.3390/medicina56030141

17. Anderson JG, Abrahamson K. Your health care may kill you: medical errors. Stud Health Technol Inform. 2017;234:13-17.

18. Cabrol M, Pombo C, Gonzalez N, Sánchez R. Adopción ética y responsable de la inteligencia artificial en América Latina y el Caribe [internet]. Interamerican Development Bank. Disponible en: https://publications.iadb.org/publications/spanish/document/fAIr_LAC_Adopci%C3%B3n_%C3%A9tica_y_responsable_de_la_inteligencia_artifcial_en_Am%C3% A9rica_Latina_y_el_Caribe_es.pdf

19. D’antonoli TA. Ethical considerations for artificial intelligence: an overview of the current radiology landscape. Diagnostic Interv Radiol. 2020;26(5):504-11. https://doi.org/10.5152/dir.2020.19279

20. Guío Español A, Tamayo Uribe E, Gómez Ayerbe P, Mujica MP. Marco ético para inteligencia artificial en colombia [internet]. Vol 1. Bogotá: Gobierno de Colombia, Banco de Desarrollo de América Latina, Banco Interamericano de Desarrollo; 2021. Disponible en: https://inteligenciaartificial.gov.co/static/img/MARCO_ETICO.pdf

21. González Arencibia M, Martínez Cardero D. Dilemas éticos en el escenario de la inteligencia artificial. Econ Soc. 2020;25(57):1-18. https://doi.org/10.15359/eys.25-57.5

22. Samek W, Wiegand T, Müller K-R. Explainable artificial intelligence: understanding, visualizing and interpreting deep learning models. arXiv preprint arXiv:1708.08296. 2017 Aug 28.

23. Gostin LO, Halabi SF, Wilson K. Health data and privacy in the digital era. JAMA. 2018;320(3):233-4. https://doi.org/10.1001/jama.2018.8374

24. Grundy Q, Held FP, Bero LA. Tracing the potential flow of consumer data: a network analysis of prominent health and fitness apps. J Med Internet Res. 2017;19(6):e233. https://doi.org/10.2196/jmir.7347

25. Safdar NM, Banja JD, Meltzer CC. Ethical considerations in artificial intelligence. Eur J Radiol. 2020;122(July 2019):2019-2021. https://doi.org/10.1016/j.ejrad.2019.108768

26. Zuiderveen Borgesius FJ. Discrimination, artificial intelligence, and algorithmic decision-making [internet]. Estrasburgo: Council of Europe; 2018. Disponible en: https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73

27. Zuiderveen Borgesius FJ. Strengthening legal protection against discrimination by algorithms and artificial intelligence. Int J Hum Rights. 2020;24(10):1572-93. https://doi.org/10.1080/13642987.2020.1743976

28. Köchling A, Wehner MC. Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Bus Res. 2020;13(3):795-848. https://doi.org/10.1007/s40685-020-00134-w

29. European Comission. White paper on artificial intelligence: European approach to excellence and trust. J Chem Inf Model. 2013;53(9):1689-99.

30. Crawford K, Dobbe R, Dryer T, Fried G, Green B, Kaziunas E, et al. AI Now 2019 Report [internet]. New York: AI Now Institute; 2019. Disponible en: https://ainowinstitute.org/publication/ai-now-2019-report-2

31. International Center for Scientific Debate Barcelona. Artificial intelligence dreams, risks, and reality [internet]. 2017:4-7. Disponible en: https://www.bdebate.org/en/synopsis/artificial-intelligence-dreams-risks-and-reality

32. Muñoz VM, Tamayo Uribe E, Guio Español A. The Colombian case: A new path for developing countries addressing the risks of artificial intelligence. 2021;(May):1-13

33. Matheny ME, Whicher D, Thadaney Israni S. Artificial intelligence in health care: a report from the National Academy of Medicine. JAMA. 2020;323(6):509-10. https://doi.org/10.1001/jama.2019.21579

34. Garcia-Vigil JL. Reflections on ethics, human intelligence and artificial intelligence (AI). J Biol Today's World. 2020;9(11):1-2.

Notas de autor

a Autora de correspondencia: aegarcia@colombianadetrasplantes.com

Información adicional

Cómo citar: García-López A, Girón-Luque F, Rosselli D. La integración de la inteligencia artificial en la atención médica: desafíos éticos y de implementación. Univ. Med. 2023;64(3). https://doi.org/10.11144/Javeriana.umed64-3.inte

Contexto
Descargar
Todas