人工智能在各行业中逐步落地,在法律层面会产生何种风险以及我们又该如何面对,成为目前需要解决的重点问题。笔者认为,目前阶段防范人工智能的法律风险应当把握好人工智能与个人隐私权的保护、人工智能与法律伦理困境、人工智能与侵权责任三个重点。
人工智能作为目前炙手可热的高端领域,不仅得到了国家层面的大力支持,而且在社会层面也吸引了诸多关注。人工智能从其产生到高速发展的风风雨雨六十余载,有赞成者,也有对此持悲观态度者。抛开人工智能的优势不论,单就其在各行业中逐步落地,在法律层面会产生何种风险以及我们又该如何面对,则成为目前需要解决的重点问题。具体来看,笔者认为,目前阶段防范人工智能的法律风险应当把握好三个重点。
第一,人工智能与个人隐私权的保护。人工智能存在“智能感知、智能推理、智能学习、智能行动”四个环节,这些环节要想充分发挥作用都离不开大数据的驱动。因此,人工智能要想体现出更多的智能化,就需要充分利用各种大数据。数据的样本越大,获得的信息也就越全面,对人类的需求提供的服务也就越智能化、精准化。显然,人工智能给人们生活带来了便捷的同时,也隐含着另一个深层次的法律风险,即不加区分地使用大数据可能会泄露他人的信息、侵犯他人的隐私。那么,又该如何平衡大数据的使用与个人隐私权的保护呢?笔者认为,既然人工智能的发展需要数据予以驱动,那么只有不断建立相关的数据库才能将人工智能的应用推向更高、更实用的层面。
结合我国目前的现状来看,就需要个人让渡一些自身的相关信息。但是该种让渡也并非毫无边界和原则,具体来看应当把握以下几点:第一,确立不可转让的个人信息范围。就目前来说,个人的信息可以被区分为“专属于个人的身份信息”以及“因消费等产生的内容信息”。因此,专属于个人的身份信息一般涉及到个人的隐私权,例如他人的身份证信息,他人的家庭地址等,如果让渡这部分信息的话,可能在被犯罪分子获得之后会产生严重的后果。因此,对这部分信息应当提供更加严格的保护,不允许私人进行转让。第二,即便是对“因消费等产生的内容信息”进行转让,也应当坚持“转让同意”原则,不仅需要得到社会个体的具体承诺,而且商家使用相关的信息也应当支付相应的对价。当然,在使用的过程中,应当赋予社会个体随时有权要求商家终止的权限。第三,从刑法层面加大人工智能领域侵犯隐私权的保护力度。我国刑法规定的“侵犯公民个人信息罪”就是针对他人隐私权保护的有力条款,根据该罪名规定,“违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的”就可构成本罪。因此,如果获得他人信息的商家、医院、微信、支付宝等主体以及平台向特定人提供公民个人信息,以及通过信息网络或者其他途径发布公民个人信息的,均可认定侵犯公民个人信息罪。
第二,人工智能与法律伦理困境。就目前来说,由人工智能技术所引起的伦理困境也较为突出,并在以下方面表现明显:首先,人工智能是否具有人的主体资格。基于人们对人工智能的种种遐想,如智能管家等,在现实生活中也逐步变成现实。智能机器人不仅能够像人类一样思考、对话和生活,而且还能模拟人类的情感。那么,对于这样的智能机器人是否应当赋予其公民主体资格,世界各国做法不一。如沙特赋予了类人机器人“索菲亚”国籍,那么由此标志了该智能机器人获得了如人类同等的权利与义务。其次,由智能机器人引发的性别歧视不断。虽然计算机算法仍基于性别产生配对,但忽略了某些潜在的关联——即某些词被视为更男性化或女性化,因而智能机器人不能进行有效辨别,导致性别歧视问题越来越突出。最后,由智能机器人引发的种族歧视此起彼伏。根据美国普林斯顿大学的研究发现,人工智能系统可能会有种族歧视的迹象。该项研究同时表明,机器人对于白人名字感觉“喜悦”,而对于黑人名字却表示出“不悦”。所以,一些人工智能识别软件将黑人错误地标记为“黑猩猩”或者“猿猴”。
那么现阶段又该如何防范以及克服这些伦理的困境呢?笔者认为,首先,对于智能机器人的法律主体资格问题应当由各国自主确定。例如,有的国家通过立法确立了智能机器人的法律地位,那么在其国内应当具有法律效力。但是就我国目前现实情况来看,确认智能机器人的“人”的主体性资格还为时尚早,理由有二:其一,虽然近几年来人工智能模仿了人类大脑内神经系统运作模式,借助人类的大脑思维方式而不断的自我学习,但是其与人类的创造性思维相比还略显逊色。人类不仅具有自我认识能力,而且对任何理性之命题都能给予理性回应之“主体”,因此人类本身是具有了自我承担责任能力的存在物。机器人无法像人类一样行使权利、承担义务,也无法对一切事物均能获得理性之认识。其二,人工智能的最大障碍是无法正确、全面的理解人类语言。因此,缺乏对真实世界的数据体验以及人类社会已经积累起来的数量巨大的社会互动经验,导致机器人有时候很难理解一些核心词汇的真实内涵。例如,机器人Tay根本无法正确理解“大屠杀”的核心含义,在其看来大屠杀还是一种正当的行为。因此,如果目前尚未克服以上两种技术瓶颈,我国还不宜过早承认其具有人的主体地位。
其次,又该如何防范或克服性别歧视以及种族歧视等伦理问题呢?笔者认为,即便是人工智能也不应有任何歧视是必须遵守的伦理底线。对于性别歧视或者种族歧视应当从其发生的原因中寻求相应的解决措施具有妥当性,具体来说包括以下几点:其一,优化数据算法。人工智能是基于数据算法为前提,因此,一旦数据中涉及到歧视的内容,那么也会影响到人工智能做出判断。因此,解决这一问题最为关键在于优化数据的源头。例如可以建立自动过滤相关敏感词汇的数据库,从源头上净化相关数据信息。其二,对人工智能相关领域进行必要的伦理审查。就目前来看,人工智能数据存在的“黑暗算法”也是产生伦理困境的重要原因之一。对此,可以加强两种措施:一方面,事前加大对相关研发人员伦理审查的力度,确保该类人员具有从事相关行业的职业伦理底线;另一方面,事后对相关智能产品进行核查,以确保流通中的智能产品不存在任何伦理问题,如果查处存在该方面问题应当及时停止相关类产品的研发和流通。
第三,人工智能与侵权责任。要想人工智能获得快速发展就必然使其投放到实践中使用,使用中的产品必然会存在安全隐患问题,具体包括两个方面的内容,其一是因人工智能产品质量本身问题对他人造成的损害;其二是使用者不当使用该产品对他人造成的侵害。如前所论,我国目前并未确立人工智能的法律地位,因此,在面对这些侵权问题时,又该如何应对,同样是较为复杂的疑难问题。
笔者认为,既然人工智能目前尚未成为民事主体,结合我国侵权责任法以及成立侵权责任的要件进行分析判断,应当由以下相应的主体来承担其责任。首先,生产者的责任范畴。如果是由生产者的原因导致人工智能的产品存在缺陷,那么根据侵权责任法第四十三条之规定,则产品的使用者可以要求产品生产者承担侵权责任。其次,销售者的责任范畴。我国侵权责任法确立的是销售者承担过错责任。因此,只有在因销售者的过错使人工智能产生缺陷,销售者才对他人的损害承担侵权责任。最后,使用者承担责任范畴。如果使用者在使用过程中操作不当,造成对他人侵害,那么可以区分为“用人单位”和“非用人单位”两种责任形式。如果是用人单位的职工操作不当而造成的损害,则由用人单位承担责任,如果劳动者存在过错的话,用人单位可以予以追偿。如果是非用人单位的其他个人造成的侵害的话,那么就有必要根据民事侵权责任的“危害行为、损害后果、因果关系和主观过错”四个要件进行具体判断。如果能得出肯定的结论,那么使用者应对该结果承担责任。