周一至周五 | 9:00—22:00

期刊论文网 > 文化历史论文 > 科学、科学研究论文 > 当代人工智能发展科学研究论文伦理问题及原因分析

当代人工智能发展科学研究论文伦理问题及原因分析

2018-12-11 14:56:59来源:组稿人论文网作者:婷婷

  摘要

  当下,提到人工智能安全,我们很容易把人工智能和相关影视作品想到一起,诸如星球大战、终结者、2001:太空漫游、疑犯追踪等。这些电影饱含了人类对人工智能的无限遐思,但又确确实实不无道理。本文讨论了目前人工智能可能对人类造成的道德伦理问题及相应的引起原因及部分解决方案。

  关键词:科学研究;伦理与道德;人工智能;未来社会

  人工智能的背景

  当下,人工智能时代已经到来,我们可以眺望不远的未来,世上或许将仅存两样东西——生物人与智能机械。可以预见,当所有设备都被“人化”,这样一个时代将会变得混沌不堪。著名的物理学家霍金曾多次警告,人工智能若不加以控制地发展,终有一天将毁灭人类。可以说,成功创造出人工智能称得上是21世纪人类最伟大的历史事件,但与此同时,这也将会是人类历史上最危险的时间。也就是说,如果处理不得当,地球上的生物人将消失,到时候只剩下智能人了。这究竟是杞人忧天,还是未雨绸缪?当然我们更愿意看到的是后者,人与人之间随着历史的发展逐渐形成具有普适性的道德标准。当电脑正在以各种方式影响我们的生活方式和生存空间,对于人工智能的研究以及由于人工智能技术的应用对我们道德的形成发展所产生的影响不能不让我们思考。

  首先我们应当明白,人工智能其本质上是计算机学科的一个分支。其根本是了解智能的实质,并成功打造一种全新的、以人类思维方式去对外物进行反应的智能机器。目前而言,这个领域包含了机器人、生物识别、多媒体识别、行为识别与处理等方面。

  人工智能的思想萌芽最早可以追溯到十七世纪的巴斯卡和莱布尼茨。而人工智能的开端,则可以说是十九世纪,英国数学家布尔和摩尔根提出的“思想定律”。

  上世纪40年代,阿西莫夫提出机器人学术界默认的“机器人三大定律”原则。

  而到了50年代至70年代,人工智能逐渐开始显现一定的成果。1956年美国达特茅斯学院举行了人工智能的研讨会。在这次会议上,夏麦卡锡、明斯基等10多位数学、心理学家和信息论等方面的学者第一次使用并确立了人工智能这一术语,它标志着人工智能这门新兴学科的正式诞生。

  进入80年代,随着第五代计算机的发展,人工智能得到了飞速的发展。它发展了人工智能研究的热潮。在这个阶段,象征主义蓬勃发展。象征原则又称为物理符号系统假设和有限理性原则。持该观点的学者认为认知要素是一个符号,认知过程即符号操作过程。

  90年代,由于国际互联网的技术发展,人工智能更加面向使用。研究人工智能出现了新的高潮。在这一阶段,联接主义复兴及人工智能枝繁叶茂。人工神经网络(ANN)理论,提出了一个新的转折点,和人工智能理论的基础上,构造演化,联结主义,已成为人工智能的一个主流。1997,IBM旗下的深蓝超级电脑在“六盘棋”比赛中击败了世界象棋冠军卡斯帕罗夫,这是人工智能的一大成就,在随后的10年中,各种服务机器人逐渐层出不穷。

  人工智能现在已经逐渐深入到人民生活的方方面面,从人类正常接触到的人工智能有各式各样的智能APP及自动驾驶汽车,到医疗和军事所用的各式各样的机器人,再到越来越多工厂使用全自动或半自动机器人进行的机械加工等等。

  人工智能分为强人工智能、弱人工智能两种形式。所谓弱人工智能,其在发展研究人类和动物智能的理论,可以通过程序测试这些理论。而强人工智能则为人工智能的最高形式,其目标是构建可以像人类一样思考、具有情感和意识的机器。本文讨论的即为强人工智能研究下的伦理问题。

  虽然人工智能在不少方面使得人类的生活变得更加便利美好,但是也引发了一系列的伦理问题。

  人工智能给人类带来的影响

  负面影响:气候变暖、生物灭绝、新型病毒出现

  科学领域:模拟人的思维实现专家系统、机器学习、模式识别、人工神经网络

  积极影响:为生活带来便利

  人工智能的发展给人类带来的伦理问题

  人工智能带来的伦理问题,大致以如下几种为主:

  安全性伦理的缺失:人工智能是否会颠覆消灭人类?人工智能之下个人的隐私又何在?

  社会性伦理的缺失:如何看待人工智能的情感?人际关系重塑?

  生产性伦理的缺失:人工智能代替人的工作而衍生出的失业问题、依赖性问题

  (一)、安全性伦理

  1. 人工智能自我进化带来的安全性伦理问题

  提到人工智能安全,我们很容易把人工智能和相关影视作品想到一起,诸如星球大战、终结者、2001:太空漫游、疑犯追踪等。这些电影饱含了人类对人工智能的无限遐思,但又确确实实不无道理。霍金在接受BBC采访时表示,如果技术具有与人类类似的能力,“它将脱离控制,并以加速度重新设计自己。更可怕的是,由于生物学意义上的限制,人类无法赶上技术的发展速度。” 霍金表示担心人类的未来:“人类缓慢的进化是无法与机器相竞争的。人工智能的发展可能导致人类的终结。”而除了霍金之外,还有诸如比尔盖茨等科技圈大佬表示人工智能或将毁灭人类。

  近200名来自人工智能与大数据领域的专家和创业者参加了2016全国双创活动周上海市分会场“数据时代,智能未来”人工智能与大数据高峰论坛。几乎每位发言人都提到了谷歌的“阿尔法围棋”(AlphaGo)对战李世石的人机大战,这无疑是人工智能的标志性事件。对于这一人工智能的里程碑,不少人表示人类智慧的一块重要阵地已经被人工智能拿下了,甚至有不少阴谋论者说,AlphaGo输给李世石的那盘是故意输的。

  加州大学伯克利分校计算机科学教授Stuart Russell认为,敏捷和致命的人工智能武器会将人类暴露在毫无防备的情况下,“这不是我们梦想中的未来的场景”。而来自布里斯托大学的机器人专家Sabine Hauert说,公众不必担心人工智能技术的发展。在任何情况下,人工智能模拟人的思维方式,我们都必须认真仔细地进行开发,不得违背阿西莫夫的机器人三定律:一、机器人不得伤害人类,或因不作为导致人受到伤害;第二定律,除非违背第一法则的机器人必须服从人类的命令;在不违背前两个规则的前提下,机器人必须保护自己。

  2. 人类操纵人工智能带来的安全性伦理问题

  除去人工智能自我进化对人类造成威胁之外,人类操纵人工智能对人类本身造成的威胁也应引起重视。美国国防部高级研究计划局(DARPA)正在推进两个项目:“快速轻型机器人”(FLA)和“敌对环境下联合作战”(CODE),前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序——搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成“杀手机器人”的研发。而试想,倘若这种机器失控,将对人类造成多大的打击。

  人工智能带来的隐私安全伦理问题

  值得一提的是,且不说人工智能是否会消灭人类,就目前而言,人工智能对跟人隐私安全的威胁是显而易见的。在人工智能的加持下,人们的一举一动无时不刻受到机器的采集并加以分析,正如电视剧《疑犯追踪》的世界观那样,一个超级人工智能便可根据观察人类的一举一动,预测出他未来的行为,并轻易破解任何电子隐私。不要觉得这离我们很遥远,事实上,在芝加哥等城市,已有类似的人工智能监控系统在盯着人们的一举一动。可以说,隐患的种子已悄然埋下。

  与此同时,随着人工智能对人脑研究的日渐深入,由日本本田、ATR等公司共同研制的ASIMO系列人工智能机器人已经能够检测和解释人类的大脑活动和脑电波。简单的测试,看看图片,在大脑中想象一个动作,ASIMO可以通过数据分析和解释出你想要进行的行动,然后做出同样的反应。该研究可视作使用意念控制机器,但同时也表明了人工智能已可分析出人类的想法。倘若这样发展下去,在人工智能面前,人类还有所谓的秘密或隐私吗?

  (二)、社会性伦理

  1. 人工智能的决策力

  事实上,随着人工智能技术的广泛应用,这些领域的机器人也面临着社会伦理困境:机器人能否成为一个伦理主体?例如,自动驾驶汽车,提高生活的便利,而且还提高了安全性。然而,面对公路的复杂情况,我们真的可以将自己的生命安全托付给机器人吗?

  在这方面,对哲学社会科学研究所研究员甘少平中国科学院认为有机器人和自由选择之间的基本区别。在他看来,前者的行为取决于原因,后者的独立决定的原因,并针对不同的原因去思考和选择的决策方法。究其原因,源于自然的必然性,及人际关系、社会交往规律和文化历史积淀。道德选择的前提是自由意志,人的意志自由是唯一能够思考、判断、权衡的。机器人不可能拥有自由意志,也不可能具备伦理决策的理解力。

  中国政法大学哲学系教授,费多益伦理意识的机器人受到质疑,“机器只能在理想的情况下而不是在复杂的情况下识别,与人的主观经验是分不开的。机器是机械的,准确地执行人类对它的程序,其算法完全无法描述人类视觉思维的容错能力,而这种宽容,是人类思想的骄傲特征。

  徐英瑾认为,虽然智能机器人还远没有成为一个伦理实体,但机器人具有的道德感也不是完全不可能的。为了实现这一目标,有必要研究伦理意识与程序的关系。但他同时指出,机器人可以扮演“参谋长”的角色,那就是当我们面对不同的选择时,它提供了一个概率,让每一个选择面对不同的结果,人类有最终的决定权,并承担所有的责任。毕竟,这种“工作人员”提供从客观原因的选择,可以平衡人类的直觉思维,有利于人类的直觉和机器程序做选项之间的平衡。

  2. 人工智能的情感

  而与此同时,现如今国内乃至全球都在纷纷布局人工智能市场,各个公司都尝试着在科技发展的道路上引领“风骚”。前段时间,百度创始人李彦宏宣布推出百度智能机器人助手“度秘”,豪言要让每一个人用得起秘书。而马云提到的软银已经正在批量生产投向市场的情感机器人“pepper”,意在将机器人带入普通人家。放眼国外,互联网巨头如谷歌、苹果、Facebook,以及国内声名鹊起的科大讯飞、大疆科技甚至华大基因,都在向充满奥秘但商业价值庞大的“人工智能”领域迈进。

  同样我们能联想到诸如奥斯卡名作《她》之类的影视作品,人工智能和人类之间建立感情。情感问题是千百年来人们一直在谈论的话题。明斯基认为,通过把我们的身体部分看作是大脑可以使用的资源,就可以改变他们的精神状态。因此,现在人工智能界的一种观点认为情感是一种特别的思维方式,我们可以利用它来增加我们的机智。但是随着机器人情感的不断发展,机器人会越来越接近人类。人类对于机器机器人毕竟是一个赋予一种人类情感程序的机器,实质上还是没有人类的意识。现在的机器人仆人越来越多,如危险作业、对机器人的随意破坏殴打,当下机器人毫无尊严可言。这些计划虽然对人类有利,但是随着科技的不断发展,机器人会越来越多的拥有情感,当机器人的情感发展到一定程度后,机器人还会接受这些人类视为理所应当的东西吗?

  当然,上述仍是基于机器人随着科学的发展而拥有越来越多的情感,机器人可能会不愿接受不道德的待遇。而对于人类本身来说,文明是人类区别于其他动物的根本所在。很多动物协会要求不杀生,对待各种动物要仁义,可是对于能说会做有一定情感的机器人来说,理应受到道德的待遇。这不仅是对人类精神发展的诉求,更是对人类道德的考验。

  人类社会的稳定在一定程度上依赖于道德体系的约束,而人工智能技术的初衷与本质是创造拥有近似人类情感与思维的“人工生命“服务人类社会。其从本质上决定人造生命是不可能会享有社会道德地位的。对于人工智能,人类或许本没有所谓的”道德义务“在其中。但是如果有一天,具有人类模样、情感、思维的人工智能,这样一个类生命体,被人类肆意辱骂、践踏尊严,代替人类完成各种各样的高危工作,其显然违背人类的基本道德准则。而长此以往发展下去,甚至可能从根本时尚动摇人类社会既有的道德体系,必然引起社会的混乱。

  此外,人工智能之父图灵曾说过,复制人脑的过程在不久的未来将是有可能的。那么,如果这种复制是可能的,这样得到的机器大脑可以像人一样思考。事实上,大脑中的意识承载的物质基础是多个相互连接的神经元,神经元通过相互沟通的神经兴奋,兴奋与抑制状态就可以表示为一个二进制的1或0,而这些神秘的神经元没有不能用电子元件来代替的。现在计算机科学技术的发展,为人脑思维的再现提供了充分条件。

  在人工智能领域的应用,并不缺乏谨慎的声音,人们担心,日益复杂的技术可能成为一把双刃剑。因而,我们也应时刻保持警惕。

  (三)、生产性伦理

  打车软件的应用近乎消灭了出租车行业的大半,移动互联网与智能手机的联合,更是重构了无数传统的行业。目前,众多互联网巨头都在人工智能领域投入巨大资金,并且在诸如语音识别、图像识别、自动驾驶汽车技术等人工智能领域的研究已经初见成果。包括人工智能在内每一项技术的诞生、发展和进步,一定程度上都是以机器来替代人类体力和智力作为技术发展逻辑的终点。

  近期,就在国家统计局公布8月CPI数据的第一时间,腾讯自动化新闻写作机器人Dream writer(梦幻写手)写出新闻稿的消息爆炸开来,迅速成为传媒界议论的焦点。记者圈开始出现焦虑性的争论——到底我们何时会失业?

  这似乎也预示,在未来,相对低端性质的工作将由智能机器人来完成,应对失业、社会的需要,人将步入更高层的工作领域。在外力压力的驱动下,势必有部分群体将进入人工智能无法替代的领域,甚至是直接掌控、设计智能产品的程序编码,让机器人等具有生动的“感受性”和切实的“道德反应”。

  随着人工智能的普及,机器系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及医疗保险、假释等问题。未来,人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于社会公正的问题。

  人工智能技术引起伦理问题的主要原因分析

  (一)、技术的局限

  人工智能技术不断发展的同时为人类生活提供了许许多多的便捷及财富,但是人们对人工智能的恐慌却愈演愈烈。而且当下人工智能技术在处理人类情感模仿方面处于瓶颈期,仍然存在许多缺陷。

  目前而言,人工智能仅仅能够根据人类设置的程序对人类的命令进行应答,无法拥有人类自身丰富的感情和思想,亦不能对事物进行判断或自我终止行动。这种局限性的技术若被心怀不轨之人利用,会给人类和社会造成严重后果。

  (二)、缺乏原则和规则

  人工智能引起的伦理问题也不乏是因为原则和规则的缺失。现实中,人类需要宣泄情绪时可以向机器人进行宣泄,使得自身情感得到慰藉和弥补,但是长此以往人类会对机器人产生依赖,而机器人却无法完全满足人类生活所需要的方方面面,进而会导致人的抑郁、焦虑等心理问题,其非但没有出现机器人的价值,反而会适得其反。

  而对于规则的缺乏,目前业内都没有一个非常完善、成型的人工智能约束准则。有的仅仅只是上个世纪阿西莫夫提出的人工智能三大基本原则。然而就长远的发展来看,仅仅依靠着三个基本原则是远远不够的,人工智能完全有可能通过其他的方式绕过这些基本原则。

  (三)、公众缺乏文化素养及道德涵养

  由科学家或者研究者缺乏道德素质或文化素养造成的人工智能伦理问题在很大程度上是可以避免的。可以说,正是这些不能抵制金钱以及利益吸引,违背职业道德,进行非法或违背伦理的研究者,给社会和人类利益及安全产生了巨大威胁。

  与此同时,社会大部分舆论对人工智能技术没有足够到位的认识,也因此造成了对人工智能技术的误解,因而产生了第一负面印象。而在不少缺乏学识又具有一定影响力的人物在听到人工智能相关负面事件后,以讹传讹,最后导致了群众恐慌,使不少人排斥人工智能技术。

  综上,人类自身需要对自我道德修养和文化涵养进行提升,不论是科学家、研究者,亦或是人民群众,尤其是有一定影响力的公众人物,都应当规范好自身的行为,让人工智能技术朝着对人类有利的方向发展。

  人工智能伦理问题的解决对策

  (一)、哲学思想的融合

  马克思主义哲学中,“技术是关于人的本质力量“的外化,而卡普则认为,“技术是人体器官的投影。”技术作为人的本质力量,人在外化并使用其之前,理应认识并理解它。倘若人工智能属于神经网络的投影,则人类在研发人工智能技术的同时,也必然加深对人自身本质与神经网络的认识与理解,也符合马克思主义的实践与认识辩证发展的理论。因此,人工智能相关行业研究者应当更为清晰认识人的本质及其局限,也明确技术的优势及局限,摆正人类、技术、生态自然的客体环境三者之间的关系,使得人工智能在宇宙系统中和现有社会自然和谐相处。

  那么,伦理学家如何与人工智能科学家进行合作?徐英瑾认为,人工智能涉及的伦理问题需要业界编程思路与哲学思辨思路相结合。他在《心智、语言和机器:维特根斯坦哲学和人工智能科学的对话》一书中对哲学和人工智能之间的内在关联进行了探讨,认为伦理学家需要熟悉决策论、博弈论这些经济学、统计学等领域的理论,思考这些理论的哲学前提,加强对人工智能话题的人文考量,如此才能够向业界反馈有质量的意见和建议。

  (二)、规范人工智能技术的发展和应用

  技术如果被不恰当应用势必在社会上引起不良后果,但同时这也是技术伦理中最难以规范的环节之一。技术产品提供的伦理规范虽然有说明,但是否遵守却是根据使用者的个性与品质来决定。人工智能虽具有情景识别与自我判断能力,但是若研发不当,必定产生错误认识导致恶性后果。人工智能技术虽处于当今科学技术迅速发展的时代,但若没有有效的监督机制予以监管,也没有权威机构进行规范,人工智能的未来势必让人类陷入巨大麻烦。

  因而,当下高速发展人工智能的同时,相应的对人工智能的约束也是亟待解决。为此,我们迫切需要诸如IBM、谷歌、苹果、微软等行业巨头来牵头,联合制定全世界人工智能开发者都应遵守的人工智能标准基本准则。也需要这样一个人工智能安全委员会来保证各个高级人工智能项目的安全性,并长时间予以跟进。

  日前,诸如谷歌等大公司已经成立了道德委员会,专门监督人工智能系统的开发和部署。这源于三年前,当时谷歌以6.5亿美元的价格收购了英国的人工智能创业公司DeepMind。DeepMind创始人提出的交易条件之一就是谷歌要成立一个人工智能道德委员会。这似乎标志着负责任的人工智能研发新时代正在到来。但事实上,谷歌对于道德委员会成员组成讳莫至深,实际上该委员会发挥的作用也相当有限。

  Facebook、谷歌以及亚马逊还成立了一个联盟,旨在开发解决人工智能相关的安全隐私问题。该联盟近日还宣布苹果也将加入其中。此外,OpenAI还致力于推动人工智能开源,从而让利益为全社会所共享。谷歌研究主管Norvig认为,“机器学习必须要公开,我们所有人只有通过开源代码才能够普遍受益。”

  然而,在科技公司主动公开之外,还需要为外部人士揭开人工智能技术的神秘面纱。对于没有计算机科学学位的人来说,真正理解人工智能决策非常困难,更不用说审查或规范这些技术。一些业内人士认为,如果没有对人工智能技术的理解,诸如律师、决策者和一般公众就很难真正理解或想象人工智能带来的风险。

  科学技术是一把双刃剑,其虽能保证人类的主体地位,但是若不加以合理利用,则必将对人类的人身安全、人类财产及道德伦理带来巨大灾难。

栏目分类