点击蓝字
关注我们
2023年12月8日下午,由清华大学和香港科技大学联合主办的“2023人工智能合作与治理国际论坛”专题论坛“人工智能伦理与治理”在香港科技大学逸夫演艺中心召开。论坛由香港科技大学人工智能研究中心主任冯雁教授(Pascale Fung)主持。Meta首席伦理学家、天普大学助理教授克洛伊·巴卡拉(Chloé BAKALAR)、领英技术研究员华金·奎诺内罗·坎德拉(Joaquin Quiñonero CANDELA)、香港可持续科技基金会教授,香港理工大学内地发展处总监陆海天、爱丁堡未来研究所数据与人工智能伦理学贝莉·吉福德主席香农·瓦洛尔教授(Shannon VALLOR)、慕尼黑工业大学人工智能伦理研究所主任克里斯托夫·吕特格教授(Christoph LÜTGE)、卡内基理事会资深研究员温德尔·瓦拉赫(Wendell WALLACH)应邀出席,分别就人工智能伦理与治理议题作了精彩的主旨报告。
克洛伊·巴卡拉(Chloé BAKALAR)和华金·奎诺内罗·坎德拉(Joaquin Quiñonero CANDELA)围绕解决人工智能公平性矛盾的实践、人工智能公平性的解决方法、应对有关公平和平等的政治问题、以及哲学家和政治科学家共同应对挑战四个方面进行了论述。他们认为公平有多种定义,相互不兼容,人工智能对于人类的公平性的含义则包括没有歧视和公平的结果,但伦理、政治、结果三者之间存在悖论,一种化解该悖论的方式在于将人工智能公平性视为平等对待和产品权益,这就要求所有的人工智能系统必须确保平等对待和由产品战略驱动的公平结果。产品权益涉及招聘人员的固有偏见、平等干预下结果的不可知性、如何通过产品设计增加产品权益等问题。进一步地,他们认为人工智能的公平性并不是零和博弈的游戏,应该平衡好过程公平和结果公平。
陆海天(Haitian LU)从法律服务市场现状、人工智能如何赋能、人工智能应用中的伦理考量、科技造福社会四个方面进行了阐述。大模型在理解和生成法律内容方面表现得比较出色,使得人们普遍担心人工智能正在取代人类律师工作,而人工智能会通过弥合差距唤起法律需求,创造更多就业机会。作为一种辅助工具,只要立法者是人,法官是人,律师就可以利用人工智能来提高效率,将注意力更多地转移到客户需求上。为了解决人工智能伦理的复杂性,必须采用整体方法,需要将法律框架、技术创新、治理结构、财政激励和教育举措结合起来。社会科学学者和计算机科学家之间的脱节,导致将道德规范转化为实用算法方面存在差距。可以通过原则审查、社会价值调查、案例数据库、伦理框架、建立规范基准、道德嵌入评测等方式开展研究与合作。
香农·瓦洛尔(Shannon VALLOR)做了“人工智能治理的社会关怀重构”的主题发言。她指出人类对机器行为没有足够的控制力使其承担行为后果,造成了人工智能治理的责任空白,弥补责任空白可以确保人类社会对技术的长久信任。人工智能具有不可预测性和不可控性,人工智能治理作为一种控制手段,将其视为社会关怀无非是一种很好的选择。责任伦理和道德义务产生于人工智能权力的持有和行使,治理的适当方法和必要职能不是控制,而是关注于保护和关怀群体、社区的道德生态。她还强调,如果我们希望人工智能被信赖,国家和企业就必须从社会关怀的道德态度出发进行人工智能的治理和管理,而不是被狭隘的技术官僚控制或风险管理目标所引导。构建值得信赖的人工智能必须深入关切那些受到威胁的声音,并倾听这些声音,对他们的危险阐述做出回应。
克里斯托夫·吕特格(Christoph
LÜTGE)通过线上方式发表了题为“人工智能的伦理与治理——机遇与挑战”的演讲。他提到,人工智能治理现已成为全球政治议程的重要议题,各国领导人达成了一个共同的愿景和目标,致力于制定规则和共同准则,以促进值得信赖的人工智能的发展。在应用领域,人工智能可以助力健康管理和医疗,不可避免面临系列风险,例如算法歧视、数据可靠性、数据隐私以及背后的伦理问题等。他分享了一些和人工智能伦理相关的案例,尤其是人工智能决策可能带来的道德困境。当下,各国已在提升技术稳健性、加强法律和道德准则制定以及应用的改进上采取了治理举措。他呼吁各国共同努力,在自上而下和自下而上的监管中找到均衡,保障人工智能在不同领域的正确应用,确保人工智能的发展符合人类的价值观和道德原则,为整个社会带来更大的福祉。
温德尔·瓦拉赫(Wendell WALLACH)的演讲主题是“人工智能的全球观察与人工智能全球治理中的软法职能”。他从人工智能风险切入,介绍了近年来联合国机构参与人工智能治理探讨的关键节点与举措,表达了当前联合国人工智能高级咨询机构对人工智能治理的审慎态度。报告中,温德尔·瓦拉赫提出了一个人工智能国际治理的框架,该框架由中立的技术组织、规范的治理能力、评估和标准检验的工具、人工智能治理的技术工具、全球人工智能观察站五个部分组成。其中,他详细解释了成立人工智能全球观测站计划,认为全球需要观测站在全球标准协调、数据解释与未来预测、人工智能社会影响的数据追踪、人工智能发展态势追踪、发展治理模型等方面作出建树。此外他还强调,作为硬性法律的基础,人工智能的治理需要通过软法起到快速的响应与缓冲作用,具体而言,软法需要在国际合作、政策决策支持、评估与管控人工智能系统、把控机遇与风险、设定与协调发展立意等方面发挥功能性作用。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG