2024年4月18日下午,清华大学计算法学讲坛第6期顺利举行。本次讲坛邀请了新加坡国立大学教育创新副校长、大学学院创始院长、前法学院院长Simon Chesterman 教授主讲,由清华大学法学院申卫星教授主持,清华大学法学院汤欣教授、蒋舸长聘副教授、蔚来集团副总裁&总法律顾问高岗与谈。来自美国、德国、加拿大、澳大利亚、马来西亚、印度等国家的多名清华大学在读留学生和中国学生参加了本次讲坛。Simon教授以“Why, When, and How to Regulate AI?”为主题,阐述了当前人工智能监管所面临的挑战和法律作出的回应,探讨了AI监管、人工智能生成型作品的知识产权、新加坡和中国对于AI监管的态度比较等问题。
Simon教授首先介绍了自己的研究背景,强调其研究是学术和政策工作的结晶。他指出,当前人工智能领域机遇与挑战并存。尽管我们最初熟悉的大型语言模型起源于大学研究,但如今真正意义上的变革发生在企业中。这种技术的发展对政府而言构成了真正的挑战,因为技术正在日益夺取公众的权力。因此,新加坡成立了人工智能研究机构,旨在全面发展人工智能生态系统,并尝试与企业合作进行人工智能研究与开发,以关注人工智能治理问题。各国政府目前正在研究两个核心问题:一是我们是否应该信任人工智能?二是我们如何确保其公平、负责和透明?然而,实际上,我们所面临的问题并非是“是否应该信任人工智能”,而是“人们是否真的会信任人工智能?”
Simon教授指出,人工智能所带来的机遇已为人所熟知,然而我们更需要关注其潜在的威胁。一是人工智能可能会扭曲文化,因为缺乏多样性的训练数据往往反映了特定群体的偏见。最初,人工智能研究主要由一群白人进行,尽管随着女性、有色人种的加入,开发人员的多样性有所提高,但基础数据的多样性仍然存在问题,这导致人工智能展现出偏见的情况屡见不鲜。其次,人工智能失控可能带来潜在成本。类似于2010年的经济崩溃,纽约证券交易所认为高频交易算法出现问题,这表明当人工智能失去控制时可能会引发严重后果。为应对此类情况,各国已设立了阻断措施,以确保人类在人工智能失控时能够介入。二是我们无法具体准确地了解人工智能的运作方式。人工智能领域出现了“黑匣子”问题,随着机器学习变得越来越复杂,其准确性取决于其复杂性。以自动驾驶汽车为例,当计算机程序在没有额外人工干预的情况下做出决定时,就会产生责任归属的问题。随着人类在车辆驾驶中的角色逐渐减弱,责任也将从司机转移到制造商身上。自动驾驶汽车的责任问题也备受关注,不同等级的自动化系统涉及不同的责任归属问题。因此,当责任从司机转移到制造商时,我们需要面对“黑匣子”问题。
Simon教授在进一步探讨了传统监管在面对上述挑战时的局限性。从罗马尼亚戏剧《罗斯与宇宙机器人》到《弗兰肯斯坦》等文学作品中,人们曾对人工智能可能达到人类智能水平抱有期待。然而,目前尚无理由认为这种情况实际上会发生,这被称为“安卓谬论”(Android Parodox)。这些作品也引发了人们对于需要新的法律来监管人工智能的意识。尽管有人认为运用现有规则已足以监管人工智能,但根据目前的经验,现有规则无法完全实现对人工智能的有效监管。虽然产品责任法可以规范安全性,民法和刑法可以解决可归责性,歧视问题可以通过人权法解决,隐私问题可以通过数据保护法处理,但人类控制和透明度问题仍然存在。面对人工智能快速发展的趋势,必须确保其在人类控制下进行,并解决透明度问题以明确责任的承担。
·human control
·transparency
·safety——>product liability
·accountability——>civil and criminal law
· non discrimination——>human rights
· privacy——>data protection law
为什么我们需要监管?对于这一问题,Simon教授指出,监管的必要性体现在两个方面。第一,为了解决市场失灵问题,通过监管可以纠正市场效率低下的行为,如将自动汽车的驾驶责任转移到产品责任上。中国法律采用严格责任制度,基于风险理论,认为制造商处于风险管理的最佳位置,有能力采取预防措施。第二,监管是出于社会目的,例如禁止歧视以确保公平。此外,有人认为监管的目的可能还包括应对腐败、限制或推动创新。对于像新加坡这样的小型国家来说,监管问题至关重要。新加坡对两种情况持警惕态度,一是让人们面临风险可能导致监管不足。二是限制或推动创新可能导致监管过度,从而抑制外国企业的投资。目前,新加坡正在观望美国、中国和欧洲提供的不同监管方法:美国采取自由市场模式,欧洲从基本权利和自由的角度出发,不愿以牺牲这些自由作为经济发展的代价,而中国则通过国家安全和主权来处理,并通过了保护个人信息的法律。
至于何时开始监管,Simon教授指出,这取决于技术创新的早期阶段。早期,人们对风险了解有限,对控制新技术具有强大能力,无需担心风险。但随着时间推移,人们对风险的认识增加,但控制技术的能力却下降了。以社交媒体为例,早期并未对Facebook等社交媒体进行监管,因此未能意识到可能导致青少年抑郁和焦虑等问题。而当我们意识到问题时,已经无法控制局势了。
进一步需要明确的是,我们通过监管的目标是管理风险、确定监管红线,并明确机器人不能执行的任务。例如,在战争中,决定使用致命武器的权力不应交给机器。这是一个道德问题,应由人类承担责任。此外,司法判决中,前美国最高院法官认为,我们需要的只是确定性,而判决的具体内容并不重要。中国同样允许人工智能在司法程序中发挥更大的作用。
谁应该来进行监管?是科技公司、国家还是国际合作?目前,许多科技公司在人工智能监管方面具有领先地位。例如,OpenAI最初作为非营利公司成立,但随着其需要大量硬件支持,继而成为了一家营利公司。Simon教授认为,尽管科技公司在监管上有限度,但其自我监管仍很重要,因为他们是具有发现问题能力的实体。作为公共产品的提供者,社会也应当参与监管。各国之间需要相互合作,建立共同的标准、共享信息和共同确定监管红线,以避免引发监管竞争。为了实现有意义的全球治理,中国和美国需要相互对话,并让企业参与其中。例如,国际民航组织能够协调各国飞机和机场。类似于国际原子能机构或ITU、UNESCO、ICAO和IPCC等国际组织,也许可以重新建立国际人工智能机构,但在短期内可能难以实现。美国曾以各种方式试图进行监管,但目前取得成功。澳大利亚在采用人工智能系统上也有过失败的经历。因此无论如何,我们需要国际间的相互合作。
最后,教授引用《Matrix》中的红蓝药丸比喻,如果想吃蓝色药丸并呆在现实世界里,则可以选择一本监管人工智能的严肃书籍;如果想吃红色药丸留在幻想世界中,那么可以阅读教授关于人工智能的小说。
在热烈的氛围中,本次讲坛圆满结束!