【海外智库观察227期】强化人工智能赋能(军事)医疗与政治选举时的韧性

741次阅读
没有评论

点击蓝字

关注我们

【海外智库观察227期】强化人工智能赋能(军事)医疗与政治选举时的韧性

海外智库观察

不断发展的人工智能技术已经广泛地应用于医疗健康、军事战争、政治选举等领域。人工智能与医疗健康领域的合作可以突破传统医疗环境的限制,创造更多的可能性。尤其是在军事医疗领域,无人机和机器人技术还推动了军事医疗援助范式发生转变。但同时,人工智能应用也随之产生了一系列危害与风险,例如人工智能在选举中的负面应用对公众信任造成的影响。本期《人工智能国际治理观察》将关注人工智能赋能医疗保健、军事医疗以及政治选举时会产生的风险与挑战,及相关应对措施与建议。


阿斯彭研究所

Aspen Institute



生成式人工智能给美国选举带来的九项风险

2024年1月5日,阿斯彭研究所发布了曾担任NBC、纽约时报等新闻传媒机构高管的薇薇安·席勒(Vivian Schiller)和该机构负责领导人工智能选举计划的乔什·罗森(Josh Lawson)共同撰写的文章《启动人工智能选举计划(Launching the AI Elections Initiative)》。文章指出,在公民机构、政治体制和传统媒体面临前所未有的不信任的背景下,阿斯彭研究所启动了一项名为“人工智能选举计划”的数字化项目,以加强美国选举面对生成式人工智能的韧性。鉴于选举准备工作是一项全社会性的挑战,研究人员通过访谈科技界、选举管理机构、媒体界、公民社会和学术界的60余位专家,列举了人工智能可能会对美国2024年大选产生的不利影响,并建议选举官员、政策制定者、私营部门以及新闻媒体之间加强沟通和协作,以确保美国民主的基石得到加强。具体而言,人工智能在选举中可能产生九项风险。


第一,由于选举官员、政策制定者、私营部门以及新闻媒体等群体之间的沟通不足,可能导致群体之间的激励措施和专业知识存在错位。


第二,一些群体可能会被误导性的人工智能内容所蒙蔽,而另一些群体则可能会越来越不信任真实信息,从而加深 “骗徒红利(liar’s dividend)”,破坏了对证据和事实的信任。


第三,某些大型和中型平台由于减少了“信任与安全”方面的人员配置,对人工智能生成内容的预期数量和速度准备不足。


第四,迟缓的政策行动难以防范人工智能造成的风险。预计在选举前不会出台全面的人工智能联邦法规,各州的临时法规也不尽相同。


第五,人工智能生成的媒体素材质量越来越高,使得技术支持系统和普通人在识别不真实内容方面,越来越难检测到所谓的“深度伪造”。


第六,“深度伪造”的内容可以快速且低成本地生成并大量扩散。


第七,由于人工智能工具可以为特定语言群体、人口社区、心理分析、超局部地理位置甚至不同个体调整信息,可能会造成信息定向传递和超局部虚假信息。


第八,人工智能可能被用来增加针对选举官员或公民领导的骚扰内容。


第九,人工智能生成的代码可能被用来增加恶意软件的使用,从而影响选举基础设施的网络安全。


文章指出,恶意行为者将继续利用新技术在美国社会内部制造裂痕,以破坏人们对民主价值观的信心,其攻击目标包括摇摆选区的选民、数字识字率低的个人、语言少数群体成员以及在投票站已经面临制度性障碍的人。因此,应通过增强选民和思想领袖的能力来打击削弱选举的行为。文章呼吁选举官员、政策制定者、包括技术领导者和专家在内的私营部门以及新闻媒体之间加强沟通和协作,打击人工智能在公民生活中的滥用,从而发挥人工智能在促进公民参与、强化民主价值观、增进理解、以及政府有效地为人民服务方面的积极作用。








布鲁金斯学会

Brookings Institution


「生成式人工智能在医疗保健领域的应用所存在的机遇与挑战」

2024年1月8日,布鲁金斯学会发其技术创新中心的非常驻高级研究员Niam Yaraghi撰写的文章《医疗保健领域的生成式人工智能:机遇、挑战和政策(Generative AI in health care: Opportunities, challenges, and policy)》。文章介绍了人工智能系统在医疗领域的发展趋势,生成式人工智能在医疗保健中的应用、挑战与潜在功能,以及相关的政策建议。


文章指出,相较于早期人工智能模型主要局限于分析和解释现有数据,生成式人工智能能够创造新内容,再结合易用性和用户友好界面的可访问性,得到了许多专业人士的广泛采用。患者也过度依赖数字信息源,以更好地了解自己的病情。尽管如此,这项技术并不能普遍应用于解决每个医疗保健环境中的所有问题。医生和医疗保健提供者必须谨慎部署并负责任地使用生成式AI,以减轻意外后果。生成式人工智能在高重复性和低风险的环境中表现最佳。这种有效性源于该技术依赖于历史数据来识别模式并进行预测。这种谨慎的使用方法可以使医疗保健提供者,尤其是患者逐渐理解人工智能的能力并建立对其实用性的信任,还可以为人工智能开发者提供在受控环境中严格测试和完善其系统的宝贵机会,以便将其部署到风险更大的场景中。除此之外,生成式人工智能在医疗保健中具备以下潜在功能:


一是日常信息收集。生成式人工智能可以通过以易于理解的语言与患者互动,并为医疗保健提供者总结数据,来提高信息收集和报告的效率。它还可以通过对话的形式来协助医疗保健提供者收集患者的病史。以及利用健康信息交换系统(Health Information Exchanges,HIE)来检索和分析患者的医疗记录,从而根据患者的医疗背景提出相关问题。


二是诊断。人工智能在增强诊断程序,特别是在诊断数据丰富的病状方面展示了潜力,但实现准确诊断和减轻偏见仍然是挑战,因为人工智能在诊断罕见疾病方面的有效性受到数据稀缺的限制,这意味着人工智能可能由于学习样本不足而表现不佳。


三是治疗。人工智能在治疗中的使用带来了重大挑战,特别是由于问责制和责任问题、患者信任和接受问题以及技术和实际限制。医疗保健提供者对他们施行的治疗负有最终责任。在医疗事故案件中,提供者必须证明其决定是合理的。改变现有的法律框架而将治疗责任转移给人工智能开发者似乎不太可能,而且这也会给人工智能开发者带来过大风险。此外,除了简单的药物管理外,人工智能目前还缺乏先进的技术能力来复制医生执行的细微任务。


四是治疗后监测和跟进。患者遵守治疗后的建议至关重要,但医疗提供者确保患者遵守jianyi1的手段有限,而人工智能可以在此方面大有作为。配备一系列传感器的可穿戴技术、智能设备的普及为在临床环境之外监控患者行为提供了前所未有的机会。人工智能可以利用这些数据提供实时监控、个性化建议和干预措施。有了这些广泛的数据,人工智能还能在患者需要立即就医时向医疗服务提供者发出警报。


五是人口健康管理。利用电子健康记录(Electronic Health Records,EHR)和HIE的广泛数据集,医疗提供者可以通过整合预测分析,利用人工智能来识别最有可能从及时医疗干预中大幅受益的高风险患者,从而更显著和有效地改善患者人群的管理。


针对人工智能在医疗保健中的应用存在的优缺点,作者还提出了相关政策建议。首先,为优化人工智能在医疗保健环境中的部署,培养人工智能开发者之间的透明度和医疗保健专业人员与技术专家之间的协同关系至关重要。这种合作将有助于确保人工智能建议在医学上合理且经过严格审查,最大程度减少数据输入缺陷或算法偏差造成的错误。其次,对患者进行开放性沟通,确保患者的知情同意权也非常重要。患者需要充分了解人工智能在其医疗过程中的作用以及同意使用人工智能工具所带来的隐私问题,特别是当数据收集范围超出传统医疗记录时,例如包括来自可穿戴设备和智能技术的信息。此外,还应帮助患者了解关于他们的数据使用、隐私保护以及与医疗保健中人工智能相关的利益和风险。这是实现知情决策的关键,其不仅满足法律要求,更是加强患者与不断发展的医疗保健系统之间信任的基础要素。最后,应解决数字化转型中可能加剧的现有垄断问题。人工智能系统为实现最佳性能需依赖大量高质量数据,这可能会导致数据丰富的大型医疗提供者加强市场地位,从而无意间提高了医疗成本。这种情况会导致小型、独立的医疗机构在利用人工智能提高医疗服务方面处于竞争劣势,可能加剧护理质量差距,使医疗服务不足的社区更加处于弱势。为缓解这一问题,行业领导者、监管机构和医疗保健联盟需推动民主化获取医疗数据的倡议。HIE在此中可能发挥关键作用,作为数据的聚合器和集成器,它可以促进人工智能系统从广泛多样化医疗记录中学习,还可以将人工智能能作为一项共享服务提供给其附属机构,确保所有成员实体都能从中受益,从而实现更公平的医疗服务。



兰德公司

RAND Corporation


「应当负责任地在军事医学中应用无人机和机器人技术」

2024年1月8日,兰德公司发布其技术分析师Joshua Steier撰写的文章《机器人、无人机和人工智能——探索军事医学的新领域(Robots, Drones, and AI, Oh My: Navigating the New Frontier of Military Medicine)》。作者指出自主无人机和机器人技术在军事医学领域的应用将使战场护理进入变革时代,并分析了这些技术的战略优势和潜在风险,并建议采用一种平衡的方法平衡创新、安全和伦理之间的关系。


作者指出,DP-14 Hawk等先进无人机的发展,以及机器人手术在战场上的应用在提高医疗响应速度和效率方面具备一定的潜力。这些先进系统不仅能够迅速可靠地运送医疗用品,还能进行远程医疗评估,重新塑造了向冲突区域和在冲突地区内提供医疗援助的方式,标志着在战场上提供医疗援助的范式转变。


然而这些技术在带来诸多好处的同时,也产生了诸如道德挑战、网络安全威胁以及维持必要的人类参与等问题。首先,在军事医学方面,引入机器人技术为医疗护理提供了新的可能性,其能够突破传统人类操作手术所受到的环境的限制。如在偏远的战斗区域,机器人手术系统可以使医生能够在战场上进行手术而不危及自身安全,解决了在敌对和孤立条件下对即时医疗干预的迫切需求。然而,在军事行动中部署这些自主系统存在自动化和算法偏见的风险,可能出现意外的决策或行动,导致诸如2003年伊拉克战争期间“爱国者”导弹系统的悲剧事件重演。其次,在疏散和治疗受伤士兵方面,无人机和机器人系统具有长时间运行的能力,并且,相比人类驾驶运输,它还能减少医疗物资进入战区时因人为因素而损耗的风险,但这些系统也可能遭受网络攻击的威胁、对抗性人工智能、潜在的空域拥挤以及被取代的人类医务人员的抵制等挑战。因此,作者强调,人们在享受无人机和机器人技术为军事医学带来革命性的进步之时,还应该负责任地利用这些技术,并且既能保持技术创新,也能确保安全、道德和人性之间的平衡。





原文链接:

[1]https://www.aspeninstitute.org/blog-posts/launching-the-ai-elections-initiative/

[2]https://www.brookings.edu/articles/generative-ai-in-health-care-opportunities-challenges-and-policy/

[3]https://www.rand.org/pubs/commentary/2024/01/robots-drones-and-ai-oh-my-navigating-the-new-frontier.html


文章检索:周韫斐

编译:边洁、朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第226期

海外智库丨人工智能国际治理观察第225期

海外智库丨人工智能国际治理观察第224期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy