前言
今年以来,以ChatGPT为代表的人工智能技术迅速发展,广泛应用于金融、医疗、交通、制造等领域,为经济社会发展和人类文明带来巨大机遇。然而,这一快速发展也伴随着潜在的技术安全隐患及国家安全风险,可能在不久的将来深刻改变现有的国际安全格局。
11月16日,国家安全部发文《如何化解人工智能带来的国家安全挑战》,探讨了人工智能领域可能存在的风险,包括“数据窃取、网络攻击、经济安全、‘数据投毒’以及军事安全风险”,并提到了中国提出的《全球人工智能治理倡议》(以下简称《倡议》)(文章链接:习近平“一带一路”峰会提到的《全球人工智能治理倡议》都有哪些要点?),其中强调的“完善法律法规、加强前瞻布局、打击犯罪行为、推动全球治理”等措施为应对以上风险提供了参考。(观看原文请点击文末“阅读原文”)
其中,数据方面主要存在两大风险——“数据窃取”是指人工智能需要海量的数据来进行学习和训练,这些数据中可能包含用户大量敏感信息。如果这些信息被滥用或泄露,可能会对个人隐私、国家安全造成严重危害;“数据投毒”则是指在人工智能训练数据中投放恶意数据,干扰数据分析模型正常运行的行为,可能产生帮助负面思想渗透或导致交通事故等负面影响。
因此,《倡议》提出应完善法律法规,聚焦人工智能重点领域安全应用、伦理道德约束等方面,制定更多更明确的法规政策、行业规范,保障人工智能研发和应用中的个人隐私与数据安全,确保人工智能安全、可靠、可控。
此前,国家相关部门颁布了以下法律法规以帮助防范数据风险:
●1月10日起开始实施的、由国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》提出,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、信息发布审核、数据安全、个人信息保护、反电信网络诈骗等管理制度,实施安全可控的技术保障措施。其中,第十九条明确规定,具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。
●8月8日,国家互联网信息办公室发布《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,明确只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,方可使用人脸识别技术处理人脸信息。如果有其他非生物特征识别技术可实现相同目的,应优先选择非生物特征识别技术。此外,对于在公共场所使用人脸识别技术或存储超过1万人脸信息的机构,规定了备案要求。这一举措旨在加强对人脸识别技术的管理和保护个人隐私。
●7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》。《办法》明确,提供和使用生成式人工智能服务应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。此外,提供者不得非法留存能够推断出用户身份的输入信息,不利用生成内容损害他人形象、名誉以及其他合法权益。《办法》同时明确,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。
●8月7日,全国信息安全标准化技术委员会发布了《网络安全标准实践指南 —— 生成式人工智能服务内容标识方法》,要求在人工智能生成内容的显示区域中,应在显示区域下方或使用者输入信息区域下方持续显示“由人工智能生成”等提示文字,或在显示区域的背景均匀添加包含提示文字的显式水印标识。
●8月24日,国家工业信息安全发展研究中心发布《2023人工智能基础数据服务产业发展白皮书》,针对数据安全风险,《白皮书》建议,要加快构建高质量数据集;研发数据服务质量评判标准;加大行业安全监管,优化数据服务安全环境。
●10月18日,北京市经济和信息化局制定的《北京市首席数据官制度试点工作方案》正式发布,北京将在全市政府机关内全面推进首席数据官制度。首席数据官的职责范围包括推进数字政府建设、加强数据资源管理、提升指导监督能力、提高数字思维素养、促进人才队伍建设等。
在“网络攻击”方面,人工智能可以成为破坏网络安全和管理的“帮凶”。在人工智能的协助下,网络攻击者可以随时随地对特定目标轻易发起针对性和隐蔽性很强的进攻,将互联网空间变成人人自危的“黑暗森林”。
因此,应参考《倡议》提出的方案——加强前瞻布局,支持以人工智能技术防范人工智能风险,积极发展用于人工智能治理的相关技术开发与应用,贯彻敏捷治理和多维治理原则,积极构建多方参与的人工智能治理体系;坚决打击犯罪,依法打击利用人工智能进行危害国家安全的犯罪行为,并督促人工智能行业和用户个人自觉提升防范意识、遵守法律法规,履行维护国家安全主体责任。其中,10月16日公布的《未成年人网络保护条例》针对网络欺凌等社会热点问题,要求网络产品和服务提供者应当建立健全网络欺凌信息特征库,优化相关算法模型,采用人工智能、大数据等技术手段和人工审核相结合的方式加强对网络欺凌信息的识别监测,以实现网络欺凌行为的智能化治理。
在“经济安全”方面,人工智能技术在一定程度上会成为人力工作的“高效替代品”,进而对国家经济安全、社会安全甚至政治安全造成冲击;人工智能技术也可以被用来实施经济破坏活动,例如通过操纵宣传导致金融市场恐慌。为了更好地保护知识产权,9月14日,国家知识产权局公布了大数据、人工智能等新领域新业态的知识产权保护工作的工作进展,即针对涉及人工智能、“互联网+”、大数据以及区块链等发明专利申请,在《专利审查指南》中增设专节,增加权利要求保护方式、扩大专利保护客体和明确创造性审查标准;编写新领域新业态指导案例专辑,进一步明确了涉及人工智能、大数据、个人信息保护、智慧医疗等热点问题的法律适用。
《倡议》还提出应推动全球治理,积极发挥多边机制作用,拓展“以人为本”、“智能向善”共识,形成具有广泛共识的治理框架和标准规范,推动各国在人工智能治理中加强信息交流和技术合作,共同做好风险防范。
在此方面,我国积极与他国、国际社会合作,推动人工智能治理的进展:
●10月18日,中方提出《全球人工智能治理倡议》。《倡议》围绕人工智能发展、安全和治理三个方面系统阐述了人工智能治理的中国方案。
●10月24日,中国裁军大使沈健出席第78届联合国大会裁军与国际安全委员会会议,阐述中方在人工智能全球治理上的政策主张。关于人工智能全球治理,沈健表示,中方倡导以人为本、智能向善、注重发展、伦理先行等理念,主张确保人工智能始终朝着有利于人类文明进步的方向发展。中方积极支持在联合国框架下讨论成立人工智能国际治理机构,协调国际人工智能发展、安全与治理重大问题。沈健强调,中方反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展。各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度,不谋求绝对军事优势,避免损害全球战略平衡与稳定。这有利于防范“军事安全风险”。
●11月1日,在第五届中国—东盟法治论坛开幕式上,中方表示要加大对包括数字经济和人工智能在内各方面法律制度的研究,加强法治实务合作,共同培育法律服务人才,推动全球治理体系朝着更公正合理的方向发展。
●11月1日,中国参与首届全球人工智能安全峰会,并在会上签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI。中方表示,愿与各方一道就人工智能安全治理加强沟通交流,为推动形成普遍参与的国际机制和具有广泛共识的治理框架积极贡献智慧,切实落实全球发展倡议、全球安全倡议和全球文明倡议,促进人工智能技术更好造福人类,共同构建人类命运共同体。
●11月9日,2023年世界互联网大会正式发布《发展负责任的生成式人工智能研究报告及共识文件》。《报告》提出,一方面,应积极推动创新、可持续、包容开放的发展,提升生成式人工智能算力高效、数据高质、算法创新、人才多元、生态开放的能力;另一方面,以高度负责任的态度发展可靠可控、透明可释、数据保护、多元包容、明确责任、价值对齐的生成式人工智能。
人工智能的快速发展使人惊呼“未来已来”,然而,我们不能对其带来的风险掉以轻心。目前,中国已经采取了积极的举措来应对这些挑战,确保人工智能的负责任发展。尤其值得一提的是,中国提出的《全球人工智能治理倡议》就普遍关切的人工智能发展与治理问题提出建设性解决思路,为相关国际讨论和规则制定提供了蓝本。随着全球人工智能治理话题在国际上的关注不断增加,中国也一直以来致力于在国际人工智能治理领域持续发声。近期,清华大学联合香港科技大学合作举办的2023人工智能合作与治理国际论坛即将开幕,本次论坛汇聚逾50名海内外人工智能领域的顶级专家学者、政府人士、国际组织和企业代表,探索制定人工智能全球治理框架,助力构建以人为本的、包容、和谐、可持续的世界。欢迎报名参与!
线下报名链接:活动预告丨2023人工智能合作与治理国际论坛
线上直播报名扫描二维码:
我们期待,通过坚定的举措和国际协作,人工智能将继续为全球带来福祉,同时确保国际社会能够共同应对潜在的安全挑战,构建更安全、可持续的未来!
原文链接:国安部《如何化解人工智能带来的国家安全挑战》主理人:刘典
编辑:曹筱艺排版:赵杨博
校审:王祚
终审:梁正 鲁俊群
2023人工智能合作与治理国际论坛扫码在线报名线上直播