薛澜丨人工智能全球治理需平衡安全与发展

392次阅读
没有评论

点击蓝字

关注我们

薛澜丨人工智能全球治理需平衡安全与发展

薛澜

国务院参事,清华大学苏世民书院院长、人工智能国际治理研究院院长、中国科技政策研究中心主任

清华大学文科资深教授、清华大学人工智能国际治理研究院院长薛澜接受中新社旗下《中国新闻周刊》采访时表示,人工智能全球治理需平衡安全与发展。过去一年来,人工智能全球治理成为国际社会热门话题。薛澜表示,人工智能治理包括发展和安全两个核心问题,涉及如何构建良好的制度规则、推动人工智能创新发展、科技向善,以及保证安全底线和防范其他风险等。他指出,各国对人工智能全球治理的宏观原则存在基本共识,但主要经济体还没有进入到就人工智能全球治理的具体措施进行充分、深入交流的阶段。对于各方最终能否形成治理人工智能的全球性规则,薛澜认为,各国可能在安全底线问题上达成共识并建立机制,但在其他问题上,可能会按照各自的治理逻辑进行规制,并在一定程度上协调。薛澜表示,人类社会需要对新科技的发展进行收益和风险的评估和权衡。有些技术固然可以帮助我们实现更好的生活,但也可能带来更大的安全风险,“所以我们必须考虑在什么地方停步”。他提到,禁止人工智能在军事领域的应用是努力的方向。薛澜表示,一旦人工智能系统不受人类控制,就不再是国家和国家之间冲突的问题,而是“碳基和硅基的对抗”。如果有极端组织或个人出于对社会的不满,使用人工智能技术报复社会,后果将不堪设想。面对这些问题,全人类的利益一致,所采纳的风险防控机制和政策也应一致。对于如何帮助“全球南方”国家在人工智能发展中不掉队,薛澜认为,这需要人工智能“第一梯队”国家在全球技术共享上采取更多积极措施,包括和发展中国家的相关机构、高校及企业合作,使他们尽快掌握和应用人工智能技术,为社会造福,同时也要保证他们能安全使用新技术。薛澜表示,美国等西方国家在全球治理规则制定上一直希望占据主导地位,在人工智能治理领域也不例外。中国应当加强对人工智能全球治理的研究,形成站在人类命运共同体立场上的想法和建议,让包括美国等西方国家在内的国际社会产生共鸣。薛澜提到,在人工智能领域的全球治理规则上,应该以人类社会的共同利益作为判断基准。

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自联合早报,点击“阅读原文”获取更多内容

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy