分享到微信
使用微信扫码将网页分享到微信

当现代“卢德分子”遇上智慧医疗:伦理、公平与未来的思考

北京美德瑞骨科医生集团

随着人工智能(AI)在医疗领域的应用日益增多,我们站在了一个技术革新的十字路口。近日,《BMJ Global Health》上发表的一篇题为“盖茨基金会的新人工智能计划:试图跨越全球健康不平等?”的社论对盖茨基金会的新AI计划进行了批判性的审视,该计划旨在将人工智能(AI)大型语言模型(LLMs)部署到中低收入国家,以改善全球健康和福祉。

该篇社论指出,盖茨基金会这一举措可能会延续提供“灵丹妙药”技术解决方案来应对复杂的全球健康不平等的趋势,这有可能会造成更多的坏处而非好处。社论提出了三个主要担忧:

  • 数据质量和偏见:作者们质疑用于训练AI工具的数据质量,认为这些数据会由于世界结构性种族主义的政治经济体系而具有结构性偏见。他们认为,基于此类数据构建的AI和LLMs可能会延续现有的不平等和不公正。
  • 缺乏民主监管和控制:社论指出,AI工具缺乏民主治理,这可能导致政治行为者和国家滥用这些工具进行监视和控制,加剧威权主义倾向。
  • 程序性毁灭:作者们担心依赖AI工具可能会破坏复杂、劳动密集型的卫生保健服务过程,特别是在后殖民主义语境中。他们批评“用更少做更多”的观念,认为这是一种回避必要的卫生保健物质投资的方式,这可能会导致社会保健机构的侵蚀。

社论还讨论了AI可能加剧监视和控制的潜力,特别是在健康和医学领域,以及缺乏系统机制将来自全球经济不发达地区(Global South)的患者和公民纳入这些AI工具的治理。

社论最后还强调了数据的社会性和情境性,以及AI可能掩盖形成数据集和证据的社会现实的潜力。考虑到影响数据和技术的道德和历史条件,他们呼吁对全球健康中AI的部署进行批判性的审视。

在伦理与公平的天秤上权衡智慧医疗的未来

这篇社论让我们不禁想起了19世纪初的“卢德分子(Luddite)”,他们因担心工业革命带来的机械化生产方式会威胁到自己的生计而进行反抗。虽然社论作者在一开始就强调他们不是“卢德分子”,但是在今天,我们是否也需要对抗某些技术创新,以保护我们的伦理和公平原则?这就为我们提供了一个反思的契机:如何在追求医疗技术创新的同时,确保伦理和公平不被边缘化?

在全球范围内,智慧医疗的发展必须与伦理责任和公平性发展相辅相成。这不仅是技术问题,更是一个社会问题。我们必须确保技术创新能够惠及所有人,而不是仅仅服务于少数。在这一点上,世界卫生组织的《人工智能的伦理和治理指导原则》、欧盟的《通用数据保护条例》(GDPR)以及IEEE的伦理指导原则等框架,都为我们指明了方向。以下是一些促进这些方面发展的有影响力的框架:

  1. 世界卫生组织(WHO)的指导原则:

    • 《世界卫生组织关于人工智能的伦理和治理指导原则》:这些原则提供了关于如何确保人工智能在医疗保健中的伦理使用的指导,强调了包容性、透明度和责任性。
    • 《WHO数字健康干预措施的全球战略》:这个战略框架旨在促进数字健康技术的有效和伦理使用,以支持公共卫生。
  2. 欧盟的法规和指导原则:

    • 《通用数据保护条例》(GDPR):虽然不是专门针对医疗领域,但GDPR对医疗数据的处理提供了严格的指导,确保了数据保护和隐私。
    • 《欧盟人工智能法案》(提议):这是一项旨在确保AI系统的安全、透明和可追溯性的法律框架,包括在医疗领域的应用。
  3. IEEE的伦理指导原则:

    • 《IEEE关于人工智能和自动决策的伦理设计》:IEEE提供了一系列关于如何在设计和实施AI系统时考虑伦理的标准和指导原则。
  4. 国际医疗信息学协会(IMIA)的伦理指导原则:

    • 《IMIA的信息学伦理守则》:这为医疗信息学专业人员提供了一套伦理准则,指导他们在处理患者信息和使用信息技术时的行为。
  5. 负责任的数据科学倡议:

    • 《负责任的数据科学原则》:这些原则旨在确保数据科学家在收集、处理和分析数据时,能够负责任地行动,尤其是在涉及敏感医疗数据时。
  6. 公平、责任、透明的机器学习(FAT/ML)原则:

    • FAT/ML工作组:这个工作组专注于创建工具和方法,以确保机器学习算法的公平性、透明度和可解释性。
  7. 全球首个人工智能安全和道德声明:

    • 《布莱切利宣言》:美国、中国和欧盟等28个国家领导人和代表在全球人工智能峰会上签署的首份人工智能安全和道德声明。虽然不是专门针对医疗领域,但这是全球第一份针对人工智能这一快速新兴技术的国际性声明,旨在管理与新兴人工智能(AI)模型(由OpenAI等公司开发的大型语言模型)相关的风险,确保人工智能技术在全球范围内负责任、安全地开发和利用。

这些框架强调了数据的质量、透明度、公平性和包容性。它们提醒我们,在设计和实施智慧医疗技术时,必须考虑到数据的代表性,以及算法可能带来的偏见。同时,监管机构必须确保这些技术的应用不会侵犯个人隐私,也不会加剧现有的不平等。

在探索智慧医疗的未来时,我们必须确保技术的进步能够惠及全人类,特别是最需要帮助的群体。我们需要一个多学科、多视角的合作框架,以确保技术的发展不仅仅是为了技术本身,而是为了人类的整体福祉。也许,现代的“卢德分子”并不是反对进步,而是在提醒我们,任何进步都应该以人为本,伦理为先。

总之,智慧医疗的未来充满了无限可能,但这些可能性必须建立在伦理和公平的基础之上。作为行业的一份子,我们有责任确保技术的发展能够带来更广泛的社会利益,而不是成为新的不平等和不公正的源泉。通过持续的努力和合作,我们可以实现这一目标,让智慧医疗真正成为全人类的福祉。