El lado oscuro de la Inteligencia Artificial en Medicina: desinformación y manipulación de Imágenes. Marco Benavides

Foto Pedro Chacón

 

El lado oscuro de la Inteligencia Artificial en Medicina: desinformación y manipulación de Imágenes

 

 

Por Marco Benavides

 

 

El auge de la inteligencia artificial (IA) ha marcado un hito revolucionario en varias esferas de la sociedad, incluyendo la Medicina. El uso de la IA ha avanzado rápidamente, desde el diagnóstico asistido y la gestión de registros médicos hasta la creación de robots quirúrgicos. Sin embargo, con todas las bendiciones que la IA ha traído a la Medicina, también ha emergido un lado oscuro. El mal uso de la IA en la creación de información e imágenes falsas es un fenómeno alarmante.

La desinformación y la fabricación de contenido falso se han vuelto herramientas peligrosas en manos equivocadas. Por ejemplo, los deepfakes, tecnología impulsada por IA que puede generar imágenes y videos hiperrealistas de personas diciendo o haciendo cosas que nunca hicieron, se han vuelto cada vez más sofisticados. En un contexto médico, un deepfake podría mostrar a un médico de confianza respaldando un tratamiento no probado o peligroso, o desacreditando una vacuna segura y efectiva.

También el fenómeno de los ‘bots’ en las redes sociales que esparcen información falsa es un tema preocupante. Con IA, es posible crear cuentas que parecen de humanos y pueden propagar mentiras a un ritmo inimaginablemente rápido. Un bot de IA puede tergiversar estudios médicos, difundir teorías de conspiración y desacreditar tratamientos y vacunas. Esto socava la confianza del público en el sistema de atención médica y puede llevar a decisiones de salud perjudiciales.

Incluso en el ámbito de la investigación, el mal uso de la IA puede crear problemas significativos. Los algoritmos de aprendizaje automático pueden ser manipulados para generar resultados de investigación mentirosos. Estos resultados pueden ser utilizados para apoyar tratamientos o medicamentos no efectivos, o desacreditar otros que lo son.

Ante estos desafíos, la comunidad médica y tecnológica debe unirse para establecer límites éticos y regulaciones estrictas en torno al uso de la IA. Debemos trabajar para desarrollar y promover IA que sea transparente, justa y que preserve la confidencialidad y la privacidad del paciente.

Los profesionales médicos debemos estar equipados con habilidades digitales y conciencia de IA para poder identificar y desafiar la desinformación. Las organizaciones clínicas deben proporcionar capacitación y recursos para navegar en esta nueva era de la medicina digital.

Las plataformas de redes sociales y otras plataformas digitales también deben asumir la responsabilidad de moderar y eliminar contenido falso y desinformación. Los algoritmos de IA que alimentan estas plataformas deben ser programados para detectar lo falso o engañoso.

El mal uso de la IA para la creación de información e imágenes es un peligro creciente en el campo de la Medicina. Aunque la IA tiene un potencial enorme para mejorar la atención médica, su mal uso puede tener consecuencias graves. Por lo tanto, es crucial que tomemos medidas para proteger la integridad y la confianza en la medicina en la era de la inteligencia artificial.

 

Referencias:

Boddington, P. (2017). «Towards a Code of Ethics for Artificial Intelligence.» Springer International Publishing.

Brundage, M., et al. (2020). «The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.» arXiv preprint arXiv:1802.07228.

Chesney, R., & Citron, D. K. (2018). «Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security.» SSRN Electronic Journal.

Ferrara, E. (2020). «#COVID-19 on Twitter: Bots, Conspiracies, and Social Media Activism.» arXiv preprint arXiv:2004.09531.

Hao, K. (2019). «Deepfakes 2.0: The terrifying future of AI clones and fake news.» MIT Technology Review.

Jaremko, J. L., Azar, M., Bromwich, R., Lum, A., Alicia Cheong, L. H., Gibert, M., … & Dewey, M. (2020). «Canadian Association of Radiologists White Paper on Ethical and Legal Issues Related to Artificial Intelligence in Radiology.» Canadian Association of Radiologists Journal.

Kshetri, N., & Voas, J. (2019). «The economics of ‘Fake News’.» IT Professional, 21(6), 39-43.

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). «Dissecting racial bias in an algorithm used to manage the health of populations.» Science, 366(6464), 447-453.

Topol, E. J. (2019). «High-performance medicine: the convergence of human and artificial intelligence.» Nature Medicine, 25(1), 44-56.

Wynn, A. (2019). «Medical Ethics in the Era of AI-Powered Healthcare: A Proposal for AI Transparency.» Journal of Medical Internet Research.

 

www.medmultilingua.com/index_es.html

drbenavides@medmultilingua.com

 

 

 

 

Marco Vinicio Benavides Sánchez es médico cirujano y partero por la Universidad Autónoma de Chihuahua; título en cirugía general por la Universidad Autónoma de Coahuila; entrenamiento clínico en servicio en trasplante de órganos y tejidos en la Universität Innsbruck, el Hospital Universitario en Austria, y en el Instituto Mexicano del Seguro Social. Ha trabajado en el Instituto Mexicano del Seguro Social como médico general, cirujano general y cirujano de trasplante, y también fue jefe del Departamento de Cirugía General, coordinador clínico y subdirector médico. Actualmente jubilado por años de servicio. Autor y coautor de artículos médicos en trasplante renal e inmunosupresión. Experiencia académica como profesor de cirugía en la Universidad Autónoma de Chihuahua; profesor de anatomía y fisiología en la Universidad de Durango. Actualmente, investiga sobre inteligencia artificial en medicina. Es autor y editor de la revista web Med Multilingua.

Deja un comentario