上海市法学会官方学术公众号,CSSCI法学核心刊物《东方法学》《上海法学研究》新稿全网首发,“上海法学研究系列刊群”优稿选发。
嘉宾简介
申卫星
清华大学法学院院长、教授
申卫星,清华大学法学院院长、教授、博士生导师,清华大学智能法治研究院院长、中国法学会常务理事、中国法学会网络与信息法学研究会副会长、中国法学教育研究会副会长。长期从事对民法学的教学与研究工作,出版了《民法基本范畴研究》《物权法原理》《期待权基本理论研究》等专著和教材18部,发表法学学术论文60余篇。
2019年8月30日上午,清华大学法学院院长申卫星教授出席世界人工大会法治论坛,做了题为“人工智能国际治理框架的构建”主题发言,以下为根据发言内容所做的整理稿。在当天下午,申卫星主持了人工智能时代的青年责任圆桌讨论环节,就人工智能时代的法学教育等问题,与国际法院管理协会主席马克·比尔、上海政法学院外籍教授米罗和安吉洛·法尔松等展开了讨论。
人工智能的国际治理框架构建
清华法学院作为一个既年轻又古老的法学院,结合国家双一流建设的良好的契机,特别是结合清华大学工科强的优势,重点发展法律与科技,特别是法律与信息科技的交叉和融合。我们在去年全国率先设立了计算法学的新学科,并且由清华大学法学院牵头,联合清华大学计算机系、自动化系、汽车系和社科学院等,设立了清华大学智能法治研究院。
今天,我代表清华大学智能法治研究院,谈一下我们关于人工智能的国际治理的看法。主要想讨论三个问题,人工智能何以需要治理,人工智能何以需要国际治理,以及如何来进行国际治理的一个初步的探索和思考。
可以说,人类的每一次社会进步,特别是技术的进步和革新,都会影响社会管理模式的变革,而社会模式的管理变革会直接导致法律的相应革命。回首法律的发展历史,会清晰地看到,法律每一次变革都和技术的进步息息相关。相信随着第四次工业革命,信息技术全面的应用和发展,所带来的信息社会的规则,恐怕是一个新型的社会形态。在这个形态里,我们既陌生又熟悉。在这样的规则之下,会看到有很多新的法律问题不断涌现出来。
以我所从事的民法学的研究来看,可能从物权、债权和责任的分配上来看到,会有新的像数据产权、智能合约以及人工智能之下法律责任的重新分配。除了这些之外,在法律风险上,还应该有更深层次的超越民法的一些风险。
大家可以看得到,我把它分成三个层次的风险。
第一个层次,可以说是一种传统的风险,就是因为新一代的信息技术的全面深度应用而引发的隐私保护丧失,现代社会进入到了一个弱隐私的社会,那么这个阶段还是把信息技术作为工具来对待的;
第二个层次,是在神经网络、深度学习为代表的机器学习之下,出现了人机之间的竞争。在研究机器人能不能取代人的同时,是不是也应该思考人会不会沦为一种机器?
第三个层次,我想可能是哲学或者伦理学层面的一个反思。人机的竞争可能不再是科幻,未来的论坛,今年是第二届,我不知道第十届之后坐在下面台下的是不是我们这些自然人?会不会有所谓的三种人并存的一个形态?自然人、机器人和生物复制的人。
在机器人缺席的情况下讨论人工智能的国际治理,对于未来的法治来说,是否违反了所谓的正当程序而无法达致程序正义?不知道第十届的时候,会不会这样一种场景?但是我们需要未雨绸缪。人工智能的应用,有的是在经济层面上,像自动驾驶、精准医疗,有的是在我们行政管理层面的像公共部门的AI的服务和决策人脸识别等等。也有的是在司法领域里,比如许建峰主任介绍的,关于司法审判的智能审判辅助技术的研发,就代表这样一种潮流。当然也有可能在政治上操纵的机器人,以技术对政治的干扰,更为严重的就是在军事上有可能出现AI武器化。
那么上面我就列了几种风险,有的是行为的风险,由于算法的黑箱,引发了人类的这种技术鸿沟下风险所持续的加剧;也可能是在经济上人被机器人的取代而造成的失业,平台不断地独大垄断;也可能是在安全上的风险,更为重要的在控制上无法控制的人机竞争。当然我们还要考虑伦理上的价值引导的缺失,可能是更为严重致命的风险,因此,全局的风险可能是存在的。
那么,这样一个全局的风险使我们人工智能的国际治理成为必要,那就是所谓的人工智能的武器化。说到这个话题,可以类比核能,核能技术也带来非常大的风险,但是它是基本可控的原因是核能相对来说,入门门槛比较高,成本也比较高,不是所有的主体都可以参与。但是在信息技术特别是人工智能领域里,它的入门门槛成本相对较低,那么甚至非国家主体行为的介入比较深,特别是这个技术具有快速转移和高度扩展到各个不同领域的这样一个特点。企业在不断的竞争,政府在无序的扩张的情况下,使得国际治理尤为必要。
所以我们讲许多国家在探讨AI的立法,当下中美贸易进入了非常激烈的一个贸易争端的时候,我们要学习欧盟。那么可以看到在国际AI的治理当中,联合国秘书长明确地把AI的治理、特别是新技术治理作为联合国五大优先发展的一个事项,欧盟去年通过了人工智能的合作宣言之后,2019年4月又发布了人工智能伦理指南的这样一个方案,应该说对于技术的治理是逐渐深入的。可以说欧盟作出一个表率之后,在人工智能领域里又作出了各国的一个表率。目前中美贸易陷入了一个具体的贸易之争。作为所谓大国的中美,是不是应该跳出这样一个具体利益的局限,来未雨绸缪地考虑人工智能时代人类的命运,我们应该有什么样共同的规则?
因为我们承担了科技部立项的国家重点研发计划司法专项项目,关于智能审判辅助的技术研发。我们得到了欧盟的翻译授权,特别研究了欧盟司法效率委员会在去年年底刚刚通过在欧洲司法系统领域人工智能的伦理宪章。这里有五个原则,包括不歧视的原则,质量和安全的原则,透明公开和公平的原则,以及用户控制的原则,最重要的一个为尊重基本权利的原则。而这个原则在我国科技部发布的新一代人工智能治理八大原则里没有,其他国家也没有。这个原则非常值得我们重视、尊重。在人工智能发展当中,涉及要尊重包括隐私甚至更高的人的独立自主发展基本权利的这种原则尤为重要。如果这个原则缺失,将会使任何的治理原则都不具有一定的品位。
在今年7月6日清华大学主办的世界和平论坛的一个报告当中,傅莹大使的团队梳理了36份文件中出现频率从高到低的价值,从问责制公平与非歧视,算法的透明和可解释,隐私的保护、安全,人类的技术控制,职业责任价值体系等。大家看到这些价值实际上是在排序中以此突显它的位置,但是如何来平衡这些价值?我们应该制定更多的一些原则。目前,科技部已经发布了八大原则,包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作,特别是最后一个敏捷治理。这是我们学校薛澜教授牵头、我作为法律专家参与制定的八大原则,但这八大原则还是在发展之中,至少还缺少了刚才我提到的尊重基本权利原则。我们愿意在原则的基础上和世界各国的同行一起探讨,如何来进行人工智能的国际治理。
我们想要基本上达到的一个效果是三步走。第一步,在所有的原则的基础上,我们这个原则应该进一步细化,以达成国际共识。第二步,应该是以原则为基础,形成一个人工智能治理国际公约。从而使得人工智能国际治理的共识具有足够的拘束力。第三步,在国际公约的基础上,如何来形成一个执行机构?我的设想是能否形成一个WAIGO(Word Artificial Intelligence Governance Organization)。如果到了那一天,通过国际公约和国际组织强有力的执行,同时让各国将这一国际公约作为示范法转化为国内法,让国际治理框架与各国国内的立法和治理规则相统一。
最终,我们希望在享受人工智能发展带来的福利的同时,也要努力消除人工智能可能带来的法律上的风险和伦理上的危机。