人工智能技术应用所产生的法律问题的探究
人工智能的概述
人工智能的概念于近年被公众所熟知。谷歌下属的DeepMind公司由戴密斯哈萨比斯团队研究开发的人工智能机器人AlphaGo,以4比1的战绩横扫韩国九段围棋选手李世石,后AlphaGo经过升级学习过后,在与人类棋手的对决中更是无往而不利,最后更是以3比0的战绩击败当前世界排名第一的中国围棋选手柯洁。一时间一石激起千层浪,AlphaGo与人类棋手的对战成为公众最热议的话题,对于人工智能的表现,公众表现出的情绪是复杂的,既惊叹其超高水平的表现,又对此表现出了深深的忧虑甚至是恐惧,因为智慧一直是人类最引以为傲的高地,而如今面对人工智能似乎人类的智慧遭受到了最严峻的挑战。甚至有人忧虑会不会发生电影中的场景:机器人暴动,反抗人类,引起一场浩劫。其实人工智能的概念早在上个世纪五十年代就已经在达特茅斯会议上被提及,三十多年前人工智能已经在国际象棋领域战胜当时的国际象棋大师,只不过最初人工智能的研究比较缓慢,当时的人工智还无法达到拥有自我学习、创造的能力,人工智能的属性更偏向于“机器”而非“人”。而这一次人工智能掀起的热潮,与最初的研究阶段有着本质的不同,人工智能不止于完成简单的重复性的动作,还可以进行不断的自我学习提高本身的能力,同时具备跨界融合、人机协同、群智开放、自主操控的新特征。基于现今发达的互联网技术、云计算、大数据、脑科学的应用,人工智能可以通过对海量的数据分析,整合,可以在特定领域做出与人一样的“智能”的行为,甚至在某些领域达到了人类所望尘莫及的成就。我国充分认识到人工智能的发展对于一国是具有如何重要的战略意义,为此国务院颁布:国发〔2017〕35号文件,即《国务院关于印发新一代人工智能发展规划的通知》,为我国人工智能的发展做出详细的规划及任务要求。可以肯定的是人工智能必将会引起一次全人类范围的技术革命,但同时也会产生诸多法律问题,有待于新的法学理论的研究,及新的立法,对于人工智能技术应用所产生的法律问题加以规范。
人工智能的定义
对于人工智能这一年轻的技术领域,似乎还没有为各领域所普遍接受的定义。从字面的角度分析,人工智能应分为两个部分:“人工”与“智能”,“人工”很好理解,但对于智能的理解不同学科或不同人之间的理解差别,但受到普遍的认同的是,现今的人工智能的“智能”就是在模仿人类本身的“智能”,人工智能的行为模式,都是通过对人类本身的研究所设计的,人类本身是人类所了解的唯一的具备相当智能的生物。根据这一点来理解,笔者认为:人工智能就是由人类创造在各种环境中模拟人的机器。
人工智能的发展
人工智能技术被评为21世纪三大尖端技术之一(基因工程、纳米科学、人工智能)人工智能属于一个年轻的技术领域,人工智能的起源可以追溯到上个世纪五十年代。人工智能的发展大致分为以下几个阶段。
第一阶段:人工智能的概念于上个世纪五十年代由斯坦福大学的教授McCarthy(麦卡锡)、Minsky(明斯基)、Lochester(朗彻斯特)发起的一场学术交流会议中提出的,同时邀请了塞缪尔(Samuel)莫尔(More)等知名学者。
会议之后人工智能技术取得了很大的突破,如LT(逻辑理论机)程序系统,塞缪尔研制的跳棋程序,LISP表处理语言。
第二阶段:六十年代末到七十年代,专家系统出现,使人工智能研究出现新高潮。DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。并且,1969年成立了国际人工智能联合会议(International t Conferences onArtificial Intelligence 即IJCAI)。
第三阶段:八十年代,随着第五代计算机的研制,人工智能得到了飞速的发展。日本在1982年开始了“第五代计算机研制计划”,即“知识信息处理计算机系统KIPS”,其目的是使逻辑推理达到数值运算那么快。虽然此计划最终失败,但它的开展形成了一股研究人工智能的热潮。
第四阶段:八十年代末,神经网络飞速发展,。1987年,美国召开第一次神经网络国际会议,宣告了这一新学科的诞生。此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。
第五阶段:九十年代,由于网络技术特别是国际互连网技术的发展,人工智能出现新的研究高潮。人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于Hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。
人工智能技术应用产生的问题
人工智能技术产生的道德伦理问题
虽然现在人工智能技术还没有突破一些关键性的瓶颈,但基于发达的互联网技术、云计算、大数据、脑科学等的快速发展,使得人工智能技术爆炸式的进步,AlphaGo战胜各大顶尖的棋手还可以解释为其基于强大的运算的能力取胜,其拥有的会更倾向于“能力”而不是“智慧”,会弹钢琴的人工智能机器人,不也总是比人类钢琴家少了些情感吗?可是当人类对于自身的“智慧”的来源解析更加透彻时,对于人体本身的运行做出的更好的解读,人工智能将变得更加像一个活生生的人类,甚至基于材料科学的进步,人工智能不仅可以行为逻辑表现趋近于人类,当其披上一层“人类的外衣”是否人类自己也会产生疑惑,我们所面对的究竟是机器还是“人类”。
我们不得不面对以下的问题:
当人工智能有思维有智慧是否属于人的范畴?
一种观点认为,即使人工智能有思维有智慧依然不能属于人类,首先人类是一种自然的存在物,拥有自然属性。人的个体具有唯一性,特殊性。其次,人同时具有社会属性和精神属性,人具有社会性,人类个体之间存在联系,人是一切社会关系的总和。在道教的哲学观点看来,人固有“精气神”,而人工智能只有“精”而无“气与神”,人工智能只是在复制人的物质属性而已,当然不能算作人。另外一种观点认为,有思维有智慧当然就是人,这种观点多存于宗教,认为人应当是一种精神实体,从某种角度来讲,人就是精神,精神才是人,人应当是脱离物质实体束缚的而存在的。思维就是精神,有思维当然就是人。笔者认为:要探究有思维有智慧是否属于人,首先应当给“人”下一个定义,千百年来人类也没有弄清,“我是谁?”不同人类个体对于人类的理解有所不同,自然对于有思维有智慧的人工智能是否属于人没有一个统一的看法与标准。
当人工智能有情感有意识的是否享有人权?
当强人工智能时代来临,人工智能发展到在感情意识方面也可以趋近于人类,那么我们是否应该赋予会哭、会笑、悲伤、喜悦的人工智能以人权呢?我们将如何与这样的人工智能相处,我们还能将人工智能仅仅当做一种辅助人类的工具吗?我们如何对待人工智能?人工智能又会怎样对待我们?说到底人类始终认为,我们是人工智能的创造者,理所应当的享有主导的地位,但人工智能拥有了自我的的意识,还会接受这样“不平等”的待遇吗?在人工智能的角度,人类与人工智能的这种“不平等”还会是理所当然吗?这是值得我们深思的问题。
人工智能技术产生的法律问题
人工智能设计时产生的法律问题
我们都知道,人工智能主要内核其实是模仿人类行为的一套程序,它会指引人工智能在遇到问题时该如何像人类一样做出判断和选择,可以说人工智能的“品格、道德意识、法律意识”是其被创造之初,就是设定好的。那么人工智能在设计之时,该对其施以何种准则呢?那就不得不提到最著名的机器人三大法则“一、机器人在任何情况下都不得作出伤害人类的事情,或者看到人类遭遇危险而不予救助。二、机器人要服从人类的指令,但违反第一法则的情况除外。三、在不违反第一、第二法则的情况下,机器人要尽可能保证自身的安全”机器人三大法则似乎解决了人工智能设计时的原则性问题,但笔者认为其实不然,世事变化无常,产生的事件种类复杂多样,仅凭三条法则想要涵盖复杂多样的情况,远远是不够的,应当以更细致的立法作为指引。例如,在第一法则中,如果同为人类个体间的人身权益,甚至是生命权之间产生了激烈的冲突,比如著名的电车难题,人工智能该如何抉择。或者说我们该如何设计这样的程序,指导人工智能做出选择。这样的问题人类自己也还没有明确的答案。从功利的角度,来看似乎可以人工智能可以从被施救者的人数、生存概率、甚至是人类个体的社会价值,做出救或不救,是或非的判断。但这样选择是不是缺少了人的温度,势必会产生严重的道德伦理问题,法律作为最低限度的道德,真的能够赤裸裸的将人或人身权利做出量化吗?道德与伦理又是模糊的,界线不清晰的,以道德为标准如何能够明确的指导人工智能做出选择呢?所以对于人工智能设计的法律规范,该如何确立呢?笔者认为:对于人工智能设计的法律规范,应当是细致明确的,甚至是量化的,不得不承认人类不愿意背负道德的压力,对于人的生命价值的无限大,给予充分的肯定,但又不得不对人的生命价值量化。法律规范不仅是价值的判断,更重要在于其明确的指导作用。
人工智能本体的法律地位问题
研究人工智能本体的法律地位时,必须要回答本文上述的问题,人工智能是否属于人类?是否应当享有人权?对于学界的争论本文已经有所论述,在此不再赘述。如果人工智能在于人类的定义中仅是人类的工具,那么毫无疑问,人工智能不能成为享有法律权利,承担法律责任的主体。因其所产生的权利,如著作权、专利权等,应当直接归属于其所有者或创造者,或者通过合同的议定条款来确定。其所产生的法律责任也应当其所有者、创造者,或者法律确定的主体来承担。如果人工智能由于智能程度很高,工具的定义已经不再妥当,其已经属于新的“生命”,人类赋予其人的地位,与人权。那么其也必然成为法律规范的主体,可以设想甚至有一天,人工智能会与人类结合,缔结婚姻关系,组成家庭。笔者认为:人工智能能否作为法律主体,享有法律权利,承担法律责任,要依据其智能程度,在弱人工智能时代(人工智能能够模仿人类的行为,但人工智能本体缺乏思想意识),人工智能的属性更加偏向于机器和工具,其不应享有法律主体的地位。法律权利和法律责任应归于其所有者、创造者,或者法律确定的主体。在强人工智能时代(对比弱人工智能,强人工智能有意识,有情感,能思考,会推理等),人工智能的属性更加趋近于人类,但其终究与人类不同,笔者认为,如果不能赋予其相应的人的地位、人权,显然是不合适的,如果依然将其视为工具,人类与人工智能是否能够和谐相处。建议赋予其“亚人类”的地位,赋予其相应的法律主体地位,确定其享有相应的人权,那么如何把握尺度呢?笔者认为,应当结合人工智能的发展,根据其智能程度的变化,及时的调整其在法律中的地位。这样人与人工智能才能和谐相处。人工智能给我们带来的才是福祉,而不是灭顶之灾。
结语:人工智能技术的发展被视为第四次工业革命,其将会解放人类的脑力,更大的提高社会的生产力,我们不能因为其带来冲击,与危险而放弃对人工智能的研究,历史给我们的沉痛教训:“落后就要挨打。”那么关于人工智能的立法就显得尤为关键,关于人工智能的立法要结合人工智能的实际发展情况,迅速做出调整,否则将会成为制约其发展的束缚。