日期
10/23
2017
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

人工智能安全问题及其解决进路
收藏
2017-10-23 11:04:18来源: 中国视觉网

  人工智能安全问题及其解决进路

  2016年3月9日至15日,谷歌人工智能“阿尔法围棋(AlphaGo)”与韩国职业围棋高手李世石之间展开了一场“人机大战”,李世石的落败使人们再一次为人工智能的强大能力惊叹不已。由此,也引发了人们对人工智能安全问题的普遍忧虑。人工智能是否会成为人类“最后的发明”?我们如何面对高速发展的人工智能?本文尝试就研究人工智能安全问题的必要性以及可能的解决途径进行简要论述,以期引起更多的关注和更深入的讨论。

  一 探究人工智能安全问题的必要性

  1.人工智能超越人类智能的可能性

  毋庸置疑,人类的智能水平从整体上正如许多科幻电影与文学作品中所表现出来的那样远远超越于其他生物智能,正是因为这一点,使得人类成为地球的统治者。因此,我们很自然地得出推论,如果人工智能超越了人类智能,人工智能很可能不再听从人类的指令,反而会与人类争夺统治权。那么,人工智能会从整体上超越人类智能吗?我们可以从多个角度来考察人工智能超越人类智能的可能性问题。虽然目前学界对智能及其实现方式的认识存在许多差异,但这正体现了人类对智能认识的多样性,是人类实现对智能全面深理解的必经过程,并不意味着人类对智能的全面理解是不可能的。从这个角度看,科学家对人类智能的全面认识与实现,只是程度和时间的问题,而不是可能与不可能的问题。

  已有不少学者从哲学、未来学等角度论证了人工智能发展进步的可能性与可行性。徐英瑾认为,我们可以在维特根斯坦哲学的启发下,在一种非公理化推理系统的技术平台上开发出具有不同配置形式的通用智能系统,并使之走向产业化和商业化。被微软公司创始人比尔•盖茨誉为“预测人工智能未来最权威的人”的库兹韦尔(Ray Kurzweil)坚信,人工智能会超越人类智能,而且超越的速度会比人们预想的快得多。他认为,2045年是奇点到达的时期,这将是极具深刻性和分裂性的时间点,非生物智能在这一年将会10亿倍于今天所有人类的智慧。虽然库兹韦尔的观点受到一些学者的批评,但他的论证并非空穴来风,而且他的著作产生的广泛影响至少说明他所思考的问题的极端重要性。

  从科学技术史的角度看,许多预言不可能实现的科学技术,后来都变成了现实。比如,一些著名的科学家与工程师曾认为飞机不可能飞上天,让比空气重的机械装置飞起来纯属空想。但是,事实证明他们错了。因此,当科学家对某些科学技术进行否定性的预测时,他们更应该谨慎行事。当然,要对某一项科学技术的发展及应用作出精确预言几乎是不可能的。但是,从相关技术的发展进步以及目前世界各国对人工智能重视的程度来看,人工智能在未来一段时期内极可能会快速地发展。计算机的计算速度、存储容量的快速发展是有目共睹的,近些年发展起来的深度学习、云计算、超算、大数据技术等也会推动人工智能的进步。显然,谷歌阿尔法围棋的胜利使得人们普遍相信人工智能必将取得更快的发展。据报道,在阿尔法围棋与李世石之间的“人机大战”之后不久,韩国政府宣布一项总投资约8.4亿美元的专项计划,用于加快人工智能产业的发展。世界上许多国家自然都不甘落后,希望抢占人工智能研发高地,科研经费与人员投入增长。从这个角度看,想要阻止人工智能的发展几乎是不可能的。

  2.人工智能产生危害的可能性与后果的严重性

  鉴于人工智能发展史上经历的若干曲折和发展现状的理解,目前大多数人工智能专家对人工智能能否(至少是在短时期内)超越人类智能持谨慎甚至否定态度。日本人工智能专家松尾丰认为:“人工智能征服人类、人工智能制造出人工智能——这种可能性在现阶段看来并不存在,只不过是凭空臆想而已。”在他看来,我们没有必要对人工智能征服人类感到忧心忡忡。也有一些科学家对人工智能的未来表示担忧。比如,2014年底,英国广播公司报道,著名理论物理学家霍金表示:“人工智能的全面发展可能导致人类的灭绝。”霍金担心,人工智能也许会在将来的某一天赶上甚至超过人类。比尔•盖茨等著名人士也有类似的忧虑。

  不过,即使人工智能整体上并未超过人类智能,但不加控制的片面的人工智能也可能给人类带来危害。就像波斯特洛姆(Nick Bostrom)提出的曲别针思想实验那样:如果一种人工智能系统被设置为使曲别针的产量最大化,那么,这种人工智能系统很可能具有无法满足的胃口,不断地获取物质和能力,走上首先将地球,然后将整个可观察宇宙的大部分都变成曲别针的道路。另外,互联网、物联网技术使得人工智能的安全问题更加复杂化。一方面,网络资源使得人工智能自身发展进化和可供使用的资源趋于无穷;另一方面,互(物)联网技术使黑客、病毒等人为因素对人工智能产品构成巨大威胁。即使人工智能尚不如人类智能,但网络技术极可能使我们对人工智能的依赖演变成灾难。比如,如果黑客控制了人们家里的儿童看护机器人、助老机器人或其他智能系统等,由此导致的后果将不堪设想。

  从近几十年来非常流行的风险社会理论的角度看,研究人工智能安全问题的必要性是不言而喻的。作为风险社会理论代表人物之一的贝克(Ulrich Beck)认为:“风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情,通过有意采取的预防性行动及相应的制度化的措施战胜种种副作用。”虽然风险社会研究的不同流派对风险的界定及防范等基本问题有各自不同的看法,但对高科技会导致高风险的认识是高度一致的。因此,风险社会研究的理论成果对人工智能的安全问题研究颇有借鉴与启发意义。

  总的来说,鉴于人工智能超越人类智能的可能性,以及人工智能产生危害的可能性与后果的严重性,加上科学技术本身内在的不确定性,这些因素足以构成我们研究人工智能安全问题的必要性。事实上,人文社会科学研究本来就应该超越自然科学的发展,就像我们不能等克隆人产生之后再来研究克隆人的伦理与社会问题一样,我们必须在人工智能产生安全问题之前就做好充分的理论准备。

  二 解决人工智能安全问题的内部进路

  一般说来,技术导致的负面影响(包括安全问题)主要是由技术本身或人为因素造成的,相应的解决途径也可以从这两方面入手。因此,我们可以大致把解决人工智能安全问题的方法分为内部和外部两种进路。从内部进路看,我们至少有以下几种解决途径。

  第一,伦理设计。对人工智能产品进行伦理设计是解决其安全问题的基本进路之一。近十多年来,机器人伦理问题得到越来越多西方学者的关注。机器人伦理研究的主要目标,就是让机器人在与人类互动的过程中,具有一定的道德判断与行为能力,从而使机器人的所作所为符合人们预设的道德准则。从理论上看,根据人类预设的道德原则进行道德决策的机器人可以成为只做好事的“道德楷模”,而且在一定程度上还可以避免人们对其的不当使用、恶意利用或滥用。

  美国学者瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)认为,将来人工智能系统必定会独立于人类的监管,自主作出决定,他们把能够作出道德抉择的人工智能系统称之为人工道德行为体(artificial moral agents,简称AMAs)。瓦拉赫和艾伦相信,在机器人身上实现人工道德,使机器成为道德行为主体是可能的。他们为人工智能的道德抉择设计了三种实现模式:“自上而下的进路”、“自下而上的进路”,以及“混合进路”。自上而下的进路是指选择一套可以转化为算法的道德准则作为机器行为的指导原则;自下而上的进路类似于人类的道德发展模式,通过试错法培养道德判断能力。不过,这两种方式均有一定的局限性。比如,第一种进路把一套明确的规则赋予机器可能是不合理的,同一种原理在不同的情况下可能会导致不同的相互矛盾的决定;后一种进路要求机器能够自我发展进化,而人工智能系统的学习与进化能力的提高将会是一个比较缓慢的过程。混合进路在一定程度上,可追溯到亚里斯多德的美德伦理学,它把两种进路统一了起来:一方面,美德本身可以清楚地表述出来;另一方面,它们的习得又是典型的自下而上的过程。

  瓦拉赫和艾伦为我们描述了使机器人成为“道德楷模”的可能性。如果他们以及其他类似的方案能够得以实现,人工智能系统就可以作出人类认为正确的道德决策。在人类的道德活动中,非理性因素(比如情感)也会起到关键性作用,瓦拉赫和艾伦也讨论了把理性和非理性整合到人工智能系统中的可能性。不过,笔者认为,为了保证人工智能系统的安全性,我们可能希望人工智能系统的道德判断更为理性和客观,并不需要增加过多的非理性因素。

  虽然要真正实现对人工智能的伦理设计还有许多具体的工作要做,但是从机器人伦理研究的勃兴及取得的初步成果来看,在人工智能产品中实现人工道德完全是可能的。人们也更容易相信,一个能够根据我们的预设作出合理的道德判断和行为的人工智能系统,对我们来说才是真正安全可靠的。