- 12/26
- 2017
-
QQ扫一扫
-
Vision小助手
(CMVU)
据外媒分析,人工智能正在迅速发展。在不远的将来,我们可能会开始觉得我们的机器有一些类似于思想和感觉的东西,尽管它们是由金属和塑料构成的。
当这种情况发生时,我们如何对待我们的机器将很重要;哲学家和学者们已经在想象机器人和智能机器可能应该--并且被赋予--某种权利的时代。
这些不一定是人权。但是,“如果你有一台电脑或一台机器人,它是自主的,自我意识的,我认为很难说它不是一个人,”加拿大多伦多约克大学(York University)的哲学家克里斯汀安德鲁斯(Kristin Andrews)这样说道。
这就提出了许多难题。我们应该如何对待一个有一定意识的机器人?如果我们确信人工智能程序拥有意识,关闭它就等于谋杀吗?
机器人vs类人猿
一个明显的比较是动物权利运动。动物权利倡导者一直在推动重新评估某些动物的法律地位,特别是类人猿。像佛罗里达州珊瑚泉这样的非人权项目组织认为,黑猩猩、大猩猩和猩猩应该被视为自主的人,而不仅仅是财产。
领导该法律团队的史蒂文·怀斯(StevenWise)表示,同样的逻辑也适用于任何独立实体,无论是否存在。如果有一天我们有了有知觉的机器人,我们应该对他们承担同样的道德和法律责任,就像我们对待某些动物一样。
当然,决定哪种机器值得道德考虑是很棘手的问题,因为我们经常把人类的想法和感情投射到无生命的实体身上--最终会同情那些根本没有思想或感情的实体。
譬如波士顿动力公司开发的一种类似狗的机器人。今年早些时候,总部位于马萨诸塞州的公司发布了一段视频,显示员工踢这台四条腿的机器。这个想法是为了炫耀点的非凡平衡。但有些人认为这类似于虐待动物。例如,“动物伦理对待”组织(PETA)发表了一份声明,称SPOT的处理“不恰当”。
麻省理工学院媒体实验室的研究人员凯特·达林(Kate Darling)在研究人们如何与玩具恐龙机器人普莱奥(Pleo)互动时,观察到了类似的情况。佩洛看上去不像个活生生的动物--这显然是个玩具。但是,它的特点是行动和说话的方式,不仅表明一种形式的智力,而且也有能力体验痛苦。如果你倒挂着,它会发出呜咽,叫你停下。
为了看看我们能把同情扩展到简单的机器人上有多远,达林鼓励参加最近一次研讨会的人和普莱奥一起玩,然后请他们销毁它。几乎所有的人都拒绝了。达林说:“人们下意识地把机器人当作生物对待,即使是在有意识的层面上,在理性的层面上,我们也完全理解它们不是真实的。”
虽然普莱奥无法感受到痛苦,但达林认为,我们应该关注如何对待这些实体。她说:“如果我们对他们表现出暴力,这会让我们感到不安。”(这是电视连续剧“西部世界”(Westworld)提出的一个关键问题,在这部电视剧中,主题公园的游客被鼓励随意对待超逼真的仿人机器人。)
与机器人交谈
就目前而言,虐待机器人并不是犯罪--只要你是主人。但是,虐待一个我们认为确实有某种意识的机器人又如何呢?我们如何才能从一开始就知道一台机器是否有头脑呢?
计算机科学先驱艾伦·图灵半个世纪前就思考过这个问题。图灵的看法是,我们永远不可能确切地知道一台机器的感受或体验--所以我们最好的选择就是看看我们是否能像跟人类说话一样与它进行对话(我们现在称之为图灵测试)。
鉴于人类谈话的复杂性,建立一台能够进行长时间口头交流的机器是一项艰巨的任务。但图灵认为,如果我们能制造出这样一台机器,我们就应该把它当作一个人。
亚特兰大的拉比和法学教授马克·戈德费德(MarkGoldfeder)得出了类似的结论:如果一个实体表现出人类的某些特质,我不能虐待它,看它是否流血。我有责任像对待人类一样去对待它。
显而易见的结论是,权利不应以生物学为基础,而应建立在更基本的基础上:人格。
如果我们最终承认某个智能机器是一个人,那么我们有义务赋予它什么法律权利呢?如果它能通过图灵测试,我们可能会觉得它至少应该得到继续存在的权利。
但是澳大利亚的哲学家罗伯特·斯派洛认为这只是个开始。他想知道,如果一台机器的“头脑”甚至比人类的还要大,会发生什么呢?在最近发表在TheCritique.com上的一篇文章中,他写道:“事实上,杀死一台能够通过图灵测试的机器,就像杀死一个成年人类一样,也是错误的,而且,根据机器的容量,这个错误更大。”