本期嘉宾
孙佑海:天津大学法学院院长
高绍林:北京大学法律与人工智能研究中心专家顾问、天津市人大法制委员会原主任委员
张宜云:天津市人大立法研究所助理研究员
万 勇:中国人民大学法学院教授、国家版权局国际版权研究基地研究员
曹建峰:腾讯研究院高级研究员
邓煜坤:上海厚势汽车CEO
导读
机器翻译、语音识别、智能家居、无人驾驶……随着人工智能技术的不断发展成熟,其正在越来越深度地介入人们的生活,相关的风险也开始不断暴露。人工智能是否亟须立法规制?如进行规制又该秉承什么原则?不同细分应用领域的规制重点又该如何把握?本期“声音版”邀请相关法律专家、行业从业者一道进行探讨,敬请读者关注。
有效应对新型风险必须加快立法进程
□ 孙佑海
2018年9月,第十三届全国人大常委会向社会公布本届全国人大立法计划,人工智能立法列入其中,这是人工智能领域具有重大历史意义的标志性事件。在当代人工智能飞速发展的新形势下,我们既要认清新一代人工智能技术是时代之需、发展之要、民生之盼,也要看到因技术短板、监管不力、应用失范等因素而引发的潜在风险及对社会带来的实际危害。唯有未雨绸缪地找准、判明人工智能发展带来的风险点,并及时采取法律应对措施,才能在抢抓战略机遇的同时,适时化危为机,确保社会规范有序。
人工智能可能带来的法律风险,主要有四个方面:一是利用人工智能危害社会,造成刑事犯罪的风险。以无人机为例,随着科技进步,智能无人机技术越来越先进,应用越来越普及,也给国家安全、公共安全和个人安全带来严重威胁。近年来,无人机频繁闯入各地机场净空区,多次造成航班晚点,甚至对航空飞行安全构成了威胁。2014年,我国北方某地就发生了一次无人机威胁飞行安全事件;2017年2月2日和3日两天内,我国南方某机场竟发生4起无人机非法飞行事件。仅隔一天,邻近城市的机场又发生两起无人机闯入机场净空保护区事件,无人机甚至直接飞入机场的跑道区域。以上,对于触犯刑律的,应当承担刑事责任,而相应的法律应当抓紧完善。还有一些“擒拿格斗机器人”产品,因其具有高度自主性,可以自行对目标进行攻击,一旦程序出错失控,则很可能向人群进攻,成为人类公共安全的重大隐患。这都需要通过立法进行规制。
二是因开发利用人工智能,引发民事纠纷,客观上需要人工智能立法确定承担民事责任的边界。例如,随着人工智能的普及,人工智能创作物的知识产权归属问题如何确定,目前已有相关案例。传统著作权法理论认为,作品是作者人格的体现,只有自然人才能创作作品。但动物和机器,无论何时都不能成为作者,即使其创作物具备了作品的特征。而现在,人工智能创作物向这一理论发起了挑战。此外,自动驾驶汽车的安全性问题已经引起了广泛关注,从自动驾驶汽车的生产资质、上路许可,到发生事故后的责任分担,当前法律均处于空白状态。因此,因人工智能汽车自动驾驶引发的交通事故,迫切需要通过立法,为明确责任、解决纠纷提供有效的法律依据。
三是因开发利用人工智能,违反行政管理规范,需要有关行政管理机关对违法的管理相对人进行行政处罚。例如,开发利用人工智能,在一定情形下需要行政许可,否则就要担责。这些具体的情形就需要以法律法规的形式作出规范,这是立法任务。与此相对应,对于有关行政管理机关不作为和滥作为的情形,公民、法人和有关组织可以依法提起行政诉讼,这些也需要依法作出规范。
四是因开发利用人工智能,造成严重损害消费者合法权益和社会公共利益的情形,应当依法提起公益诉讼。但由于人工智能的开发利用对于社会公共利益的损害,有其新颖性和特殊性,人类应对的措施必然有所不同,因而必然也会对人工智能的立法提出新要求,这同时也增加了人工智能立法的难度。
为了解决人工智能发展带来的新矛盾、新问题,必须未雨绸缪,加快研究人工智能的有关法律法规。一是,适时安排宏观立法。人工智能的发展离不开一部反映时代需求的人工智能法以及配套法规组成的法律法规体系。人工智能法总体上属于行政法的范畴。现阶段正处在人工智能技术的高速发展期,因此立法不能过细,但应当制定必要的原则框架,以保障法律的实施能落地。
二是明确近期立法工作重点。当前,针对人工智能的具体应用进行专门立法,是较为务实的立法思路。建议国务院或有关部门优先对自动驾驶、图像识别、无人机管控等相对成熟的技术应用行为制定法规或规章,规范社会管理秩序。
三是做好司法解释。对于立法工作一时跟不上,而实际案件又不断涌现的人工智能应用领域,建议通过司法解释的办法化解纠纷,并为立法工作赢得时间和经验。如在民事案件处理中,建议着力解决好人工智能生成内容的权利归属、人工智能损害后果的责任分担问题;在刑事案件中,建议着力解决人工智能相关犯罪行为的定性和量刑幅度;在知产案件中,建议着力解决对算法、芯片等核心技术仿冒、侵权行为的责任归属和赔偿标准等问题。
弱人工智能时代立法尚无基础和条件
□ 高绍林 张宜云
随着互联网、大数据、云计算的发展,特别是随着5G技术落地应用,人工智能必将以前所未有的速度向前发展。人工智能的发展,一方面可以造福人类,单就法律领域来讲,人工智能给法律工作赋予了新的动能,立法、执法、司法、普法、法律服务都可以借助人工智能技术极大提高工作效率与质量。另一方面,人工智能也带来许多新的挑战,如果长期缺乏规制,可能会产生一定的灾难性后果。比如,无人驾驶、无人机技术可能会给杀人、走私、贩毒等犯罪行为提供便利;人工智能程序中的漏洞,可能被恶意利用,产生严重社会安全风险;人工智能的设计者、应用者可能突破伦理底线设计、使用人工智能以及数据泄露、算法歧视等。因此,有必要对人工智能发展进行立法规制,引导、规范人工智能健康发展。
在人工智能的立法规制上,有观点认为,亟须出台专门的人工智能法,笔者认为,当前人工智能总体上还处于弱人工智能时代,主要集中于语音识别、自动翻译、语音合成、图像识别、自动驾驶、工业机器人、聊天机器人等具体领域,短期内不可能出现“通用人工智能”。因此,尚不具备制定完整人工智能法律制度的实践基础和客观条件。
马克思在《论离婚法草案》中有一句名言:“立法者应该把自己看作一个自然科学家,他不是在制造法律,不是在发明法律,而仅仅是在表述法律,他把精神关系的内在规律表现在有意识的现行法律之中。如果,一个立法者用自己的臆想来代替事情的本质,那么我们就应该责备他极端任性。”对于一个新兴领域进行专门立法规制,一般需要三个条件:一是社会产生了对这一新兴领域进行立法规制的现实需求;二是在现行法律法规框架内无法实现对其进行必要调整;三是立法者能够认清和把握其内在的客观规律。
从人工智能现阶段发展水平来看,无论是数据、算法、算力,还是应用场景,基本上还处于探索性、试验性阶段,我们还缺乏对其基本规律的研究与认识。在这种情况下,制定一部完整的人工智能法是不现实的。最现实的选择是坚持趋利避害的底线思维,根据人工智能发展的现实需要,对现行法律制度进行必要的修改、补充。
而为了保障和促进人工智能健康发展,对人工智能进行立法规制应坚持以下原则:一是以人为本原则。确保人工智能发展能够增加人类福祉,保障人的尊严、自由和人身财产安全。二是发展与安全平衡原则。处理好促进人工智能发展与保证社会安全之间的关系,二者不可偏废。三是政府干预适度原则。人工智能开发与应用只要不与法律法规相抵触,不危害公序良俗,政府就不要过度干预。四是伦理底线控制原则。明确人工智能在安全、隐私、公平、公正等方面的伦理底线。五是风险容忍度原则。人工智能发展具有很强的探索性,即使是相对成熟的应用,也还有相当的不确定性,要适当容忍其试错。六是多层级立法共进互补原则。在中国特色社会主义法律体系框架内,发挥统一、多层次的立法体制优势,从法律、行政法规、地方性法规等多个层次对人工智能进行立法规制。
从人工智能发展态势看,当前需要着手进行的立法项目,首先是全国人大及其常委会立法,包括在编纂民法典中,明确人工智能相关的民事基础制度;制定数据安全法,对人工智能时代的数据安全和信息保护作出规定;制定电信法,为人工智能发展提供良好的公共网络基础设施环境;修改道路交通安全法,对无人驾驶汽车作出规定;修改著作权法、专利法,对人工智能知识产权相关问题作出规定;适时出台刑法修正案,对人工智能涉及的犯罪作出规定。
其次是国务院制定行政法规,包括制定网络安全法实施条例、机器人使用安全管理条例、人工智能基础设施管理条例、智能网联汽车管理条例、人工智能辅助医疗诊断与治疗管理条例、修改计算机软件保护条例等。
同时,人工智能产业发展的优势地区也可以加强地方立法,重点是制定促进人工智能产业发展的地方性法规,包括鼓励人工智能产业发展,促进人工智能在政务、财税、制造等领域应用,人工智能涉及的消费者权益保护、人力资源与社会保障等。
总之,随着人工智能快速发展,需要更多的法学家关注其法律问题,尽快构建人工智能伦理体系以及相关法学理论体系,为人工智能法律规制提供理论基础。同时,立法机关要更多关注人工智能的立法规制问题,发挥立法的引领与推动作用,尽早将人工智能立法规制的相关立法项目提上议事日程,为人工智能的健康发展创造良好的法治环境。
人工智能生成物可否构成作品
□ 万 勇
2017年5月,微软“小冰”创作的诗集《阳光失了玻璃窗》正式出版、谷歌开发的人工智能DeepDream可以生成绘画,且所生成的画作已经成功拍卖……从外观形式来看,由人工智能创作的成果与人类创作的成果没有任何区别,且很难被察觉并非由人类所作。可以说,与以往技术创新相比,人工智能技术对著作权法提出的挑战是最根本,也是最全面的。
今年4月,北京互联网法院对国内首例人工智能作品争议案作出了一审判决,为理论探讨提供了新鲜的实践素材。对于主体资格问题,法院认为,尽管随着科学技术的发展,人工智能生成物在内容、形态,甚至表达方式上日趋接近自然人,但根据现实的科技及产业发展水平,尚不宜在法律主体方面予以突破。不过,法院也认为,应给予人工智能生成物以一定的法律保护,因为其具备传播价值。
笔者认为,对于人工智能生成物的著作权定性这一极具争议的问题,作为社会稳定器的法院采取相对保守、平衡的立场,是合适的。需要指出的是,如果人工智能生成物不被承认是作品,相关主体出于利益最大化的考量,很有可能会隐瞒相关成果是人工智能创作的事实。这样导致的后果其实就是迫使人们“为恶”,即通过弄虚作假来规避法律,因为从外观上无法识别,人工智能生成物最终仍然会获得著作权法的保护。与其堵还不如疏,这种理念也应适用于人工智能生成物的法律规制领域。
目前,有的国家已积累了一些经验。如英国《1988年版权、外观设计和专利法案》规定,对于计算机生成的文字、戏剧、音乐或艺术作品而言,作者应是对该作品的创作进行必要安排的人。由于这一条款具有一定的开放性,也赋予了法院较大的自由裁量权,对有效保护人工智能生成物的著作权发挥了积极作用,我国立法也可予以借鉴。
算法治理应包容审慎敏捷灵活
□ 曹建峰
随着人工智能技术的不断发展,数据和算法的结合开始对我们的生产生活产生广泛影响,从信息的个性化传播到金融、雇佣、司法等领域的自动化决策再到自动驾驶汽车等等。
但算法的应用在给人们生活带来便利的同时,也带来一系列法律、伦理与社会问题,诸如算法歧视、责任、安全、滥用、深度伪造等。国际社会开始呼吁建立算法治理,实现算法透明与问责。对此需要考虑以下几个方面的问题:
第一,算法实际上是一个非常广义的概念,所谓的算法治理是针对机器学习等人工智能算法在特定领域的应用,所以明确概念是算法治理的起点。
第二,算法治理需要包容审慎、敏捷灵活的思路,技术和商业模式快速迭代,草率立法不可能期待会产生正面效果,而且成文或专门立法恐难跟上技术发展步伐,所以应避免严格、细致的法律要求,而是采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等方式调整算法应用,支持行业自律。
第三,算法透明不是对算法的每一个步骤、技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响算法安全应用。相反,在算法系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。如欧盟《一般数据保护条例》(GDPR)并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。
第四,算法治理需要分级分类的监管机制,例如欧盟、加拿大等呼吁针对政府和社会公共部门使用的算法系统进行严监管,包括建立“算法影响评估”机制;对于商业领域的算法系统则更多采取事后追究法律责任的机制,以免过度监管影响技术创新。
因此,我们看到社会各界在以伦理的方式推动算法治理。国际层面,欧盟、OECD、G20等都提出了人工智能原则,力争在国际上达成共识;行业层面,谷歌、微软、腾讯等都提出了各自的人工智能伦理原则,积极承担伦理责任,践行科技向善,避免算法被不当利用或滥用。展望未来,我们还需要通过广泛社会参与和跨学科研究评估的方式来实现对算法应用的良好治理。
规制自动驾驶的天花板应予以抬升
□ 邓煜坤
对于自动驾驶这一新生事物,立法要密切关注跟踪其发展动态,然后再适当立法,且早期立法应以鼓励为主。就目前中国自动驾驶发展状况而言,一些城市已出台相关法规政策,允许自动驾驶汽车可在城市低速道路上进行路测,但仍有很多规定严重妨碍中国自动驾驶发展,如自动驾驶汽车不能进入高速公路测试,为此很多中国企业只能舍近求远前往美国进行高速路测,因为美国有相关法律支持。而如果不能在多种场景、更为复杂的路面上进行测试,那么自动驾驶技术和相关算法模型就难以快速成熟起来。作为从业者,希望现在的法律规制天花板往上抬一抬。当然在此过程中肯定会出现一些问题,但关键在于如何界定各方责任,促使企业将出现问题的几率降低,而不是一味限制。如果过度强调绝对不能出问题,那也就意味着自动驾驶绝对发展不起来。
在通过法律政策推进自动驾驶技术发展的同时,也要密切关注行业的发展,如果发现可能会给人类带来极端破坏的情形,也要尽快制定法律法规进行规制。以其他行业为例,如2018年被爆出的基因编辑婴儿事件,就是一起非常可怕的案例,对于技术革新带来的这种极其负面的事件,就应当尽快进行立法明确法律红线。不过就目前自动驾驶领域的人工智能技术而言,尚没有发现会给人类带来潜在巨大危害的风险。(文字整理:本报记者马树娟)
制图/高岳