关注微信公众号
下载APP

您是个人用户,您可以认领企业号

AI真正成型还要多少年?

4242
车库咖啡 2019-03-18 07:08 抢发第一评

来源:大数据文摘

编译:蔡婕、Stats熊、周素云

本文作者亨利·基辛格(Henry Alfred Kissinger)为原美国国家安全顾问,先后担任尼克松与福特政府的国务卿。他因为促成了中美关系正常化为中国人民熟知。本文出自《大西洋月刊》(The Atlantic)。

基辛格从一位政治和历史学者以及一位政治家的角度,从互联网时代,数据对人类的影响谈到社交媒体带来的信息泛滥,大众缺乏深度的思考,从而引申出对人工智能发展的担忧。提出关注人工智能的价值观、思维过程、意识形态的塑造等,呼吁关注技术与人文经验相结合,共同应对未来的发展。

无论从哲学上还是人类智慧发展上,我们真的准备好迎接人工智能了么?

三年前,在一个有关跨大西洋问题的会议上,人工智能问题出现在议程中。我本来几乎要跳过那次会议,因为它超出了我平常所关心的范围。但演讲已经开始,我不得不在座位听下去。

首先,演讲者描述了一个计算机程序的工作原理,并表示这个程序很快将在围棋比赛中挑战国际冠军。我很惊讶计算机竟然可以掌握比国际象棋更复杂的围棋。

事实上,在演讲结束后的几个月里,一个名为AlphaGo的人工智能程序将彻底击败了世界上最伟大的围棋选手。

当我听到演讲者在庆祝这一技术进步时,作为一名历史学家和半个政治家,我陷入了沉思

什么会影响机器学习的历史呢?

机器通过特定的过程获取知识,他们能将这些知识应用于人类都不擅长的领域吗?这些机器能学会彼此交流吗? 如何在新兴的选项中做出抉择?人类历史是否有可能走上印加人的道路?一系列的问题让我怀疑我们是否处在人类历史新阶段的边缘?

意识到自己在这一领域的技术能力不足,我组织在一些在技术和人文领域的老朋友进行了一次非正式对话。很多观点让我对人工智能越来越感兴趣。

迄今为止,最能体现出改变了现代历史进程的技术应该是15世纪印刷机的发明了吧,它促进了人类对经验知识的探索取代了礼拜仪式的教条,理性的时代逐渐取代了宗教的时代。

个人见解和科学知识取代了信仰,成为人类意识觉醒的主要标准。知识在不断拓展的信息库中得以存储和系统化。

理性时代便起源于这塑造当时世界秩序的思想和行动之中。

但是,在一场新的、更为彻底的技术革命中,这种秩序正处于动荡之中。

我们未能充分考虑到这场革命的后果,这场革命的高潮可能是一个依赖于数据和算法驱动的机器、不受道德或哲学规范约束的世界。

互联网时代 数据的奴隶

在互联网时代,人工智能只会让一些问题变得更加尖锐。

启蒙运动试图把传统的真理交给解放的、善于分析的理性人。而互联网则是通过不断积累和被操控数据来传播知识,人类的认知失去了个性。 

我们使用数据,却变成了数据的奴隶。

互联网用户强调检索和操纵信息,而不是将信息的意义进行情境化或概念化。很少有人搜索历史或哲学。

一般来说,大家搜索与实际需求相关的信息。在这个过程中,搜索引擎算法获得了预测个人偏好的能力,从而使算法能够对结果进行个性化处理,并将结果提供给第三方用于政治或商业目的。

社交媒体信息泛滥,却缺少深度的思考

许多技术爱好者只是使用互联网来逃避他们所害怕的孤独。逃避这些压力削弱了培养和维持信念所需的毅力,而信念只有在孤独的道路上才能实现,这才创造力的本质。

互联网技术对政治的影响尤为突出。小群体通过互联网来诉诸他们的不满,并被社交媒体迅速传播,使得政府不得不把重心转移到舆论处理上,打破了政府处理事物的优先级顺序。政府领导们忙于平息舆论不满,却很少有时间反思和思考政务,从而限制了职业发展的空间。

数字时代强调快速反应却抑制了反思,它的激励机制使激进分子凌驾于深思熟虑者之上。它的价值观是由小群体的共识达成并传播,而不是由内省形成的。

人工智能的开始

随着互联网和计算能力的增强,海量数据的积累和分析变得越来越容易,人类对数据的理解出现了前所未有的前景。

或许最重要的是人工智能的产生项目——一种能够发明和解决复杂的、看似抽象的问题的技术,其过程似乎复制了人类的思维。

这远远超出了我们所知道的自动化。

自动化处理手段,通过使实现这些目的的工具合理化或机械化,来达到规定的目标。

相比之下,人工智能确立了自己的目标来进行处理。从某种程度上说,人工智能的成就有一部分是由其自身塑造的,因此它本质上是不稳定的。

人工智能系统,通过其自身的运作,在获取和即时分析新数据的过程中不断变化,然后在分析的基础上寻求改进。通过这个过程,人工智能发展出了一种曾经被认为只有人类才能拥有的能力。

它可以对未来做出战略判断,有些基于被接收成为了代码的数据(例如游戏规则),有些则基于它自己收集的数据(例如通过反复玩100万次游戏)。

无人驾驶汽车展示了传统的人工控制、软件驱动的计算机与试图导航的人工智能行为之间的不同。

驾驶汽车需要在许多无法预料的情况下做出判断,因此需要提前编程。

举一个著名的假设例子,如果这样一辆车被环境逼着在杀死祖父母和杀死孩子之间做出选择,会发生什么?它会选择谁?为什么?它会尝试优化选项中的哪些因素?它能够解释它的基本原理吗?

面对挑战,它的真实答案很可能是(如果它能够交流):“我不知道(因为我遵循的是数学,而不是人类的原则),”或者“你不会理解(因为我被训练以某种方式行事,但不必解释它)。”然而,这样的无人驾驶汽车很可能在未来10年内在道路上普及。

到目前为止,人工智能研究仅限于特定的活动领域,而现在,人工智能研究正试图实现一种能够在多个领域执行任务的广义上的人工智能。

在可测量的时间内,越来越多的人类活动将由人工智能算法驱动。但是这些算法,作为对观测数据的数学解释,并不能解释产生它们的潜在现实。

矛盾的是,随着世界变得更加透明,它也将变得越来越神秘。这个新世界和我们已知的世界有什么不同?我们将如何生活在其中?我们应该如何管理人工智能?如何改进它,或者至少防止它造成伤害,阻止最令人担忧的结果发生。人工智能,通过比人类更快速、更明确地掌握某些能力,随着时间的推移,过度依赖数据可能会降低人类的能力。

对人工智能发展的三个担忧

在医药科学、清洁能源供应、环境问题等领域,人工智能为我们带来更为广阔的发展前景。但正因为对人工智能评判是建立在一个不断变化和发展的未来,它自身发展结果也就变得模糊不定。

有三个方面需要特别关注:

第一点,人工智能会创造意想不到的结果。像在科幻小说里就设想了人工智能攻击创造者的场景。AI可能会因为缺少人类思维联想能力而误解人类的指令,从而变得危险可怕。比如说,近几年有一款叫做Tay的人工智能机器人。

https://www.nytimes.com/interactive/2018/02/21/technology/conversational-bots.html

它会仿照一个19岁的女孩,用特别友好的口吻与人类聊天。但后来事实证明,Tay作为一台机器,它没法理解设计者给它编好的“友好”和“合理”语言偏好,反而它的语言里掺杂了种族主义、性别歧视和其他具有煽动性的回应可能有些科学家会说这样的实验计划不周、考虑不足并导致了实验失败。

但是正是因为这个实验说明了一个潜在的问题。比如:在什么范围下,AI可以理解领会设计者给它发出的指令?有什么样的途径能让Tay来理解它语言上的攻击性?用什么样的词汇能让都可以接受?又是否我们可以尽早的发现并改正这些人工智能在既定框架内的缺陷?又或者让人工智能自由发展,最终导致不可逆转的结果?

第二点,在其发展的过程中,人工智能可能改变人类思维过程和价值观。

AlphaGo通过使用史无前例的走法从而战胜了世界围棋冠军,更何况这些走法前人从未考虑,也未曾成功尝试过。是否因为这些走法超过了人类大脑认知?或者人类需要开始学习已经被这位围棋大师(AlphaGo)证明的下法?

在AI尝试围棋之前,人类围棋玩家不仅仅要寻求游戏胜利,更是要从中领悟人生的方法论,就像我们所说的棋如人生。但是对于AI来说,只有赢得游戏这一个目的。

就因为这样,AI不需要通过理论学习,只需要用数学的方式不断优化调整它的算法,从而判断出一个可以胜利的最优解。

所以AI跟人类在下棋的理念上就完全不同,并因此改变了游戏的本质和所带来的影响。是否所有AI都是这样一根筋的处理方式?

其他的AI项目的贡献方式是帮助人们解决实际问题。除了那些解决实际需求的问题(比如外面气温是多少?),AI是否能研究自然本质和探索生命意义以及引发更深入的问题?

我们是否希望让孩子通过无约束的算法来确定价值观?我们是否应该通过限制AI自主学习来保护我们个人隐私?如果是的话,我们应该怎么做?

如果AI的学习速度成指数型递增,那我们一定希望加快这种井喷式的学习速度,那么AI犯错的概率也会比人类高。

正如AI领域的研究员所建议的那样,这些错误将可能是不可调和的,除非在程序里加入“所得出的结果要合乎情理”的警告。

但是整个学术界都无法对这样的描述达成一致观点,难道要让人工智能自己来决定,它们的意识是否合乎情理?

第三点,人工智能会想尽办法达到目标,但是不会对它做法的合理性进行阐述。比如在图像识别、大数据分析、博弈等领域,人工智能已经逐渐超过人类所能做的。

如果它们的计算能力继续快速增长,它们会形成一套与人类完全不同的思考方式。但到那时候,AI会用一种能让人类理解的方式来向人们解释为什么那些做法会得到最佳结果么?

纵观人类历史,文明缔造了解释周围世界的方法,比如中世纪向我们解释了宗教,启蒙运动向我们揭示了自然科学奥秘,20世纪给我们带来了意识形态。

所以接下来我们将要直面这样一个困难的问题,那就是:如果AI超越了人类意识所能理解的范畴,那它们是否将用自己的意识形态来取代我们解释这个世界?

所以在机器的世界里,意识将是如何定义的,是否是把人类的经验简化为0、1一样的数字,来形成它们自己的记忆,不断学习、不断传承?

谁来对它们的行为负责,又有谁来为它们的错误买单?由人类设计的法律体系能否跟上人工智能思考和发展的步伐?

我们说人工智能应该是不恰当的。虽然这些机器可以处理那些原本是只有人类认知才能解决的复杂、抽象的问题。但是,他们思考的独特之处在于,可以跳出那些条条框框和所谓的经验之谈。而且,他们还具有史无前例的记忆力和计算能力,正因为这些内在优势,才让它们可以赢得各种游戏。

但对于人类来说,游戏的目的不仅仅是为了获得胜利,更重要的是从中提炼出一种对事物的思考方式。如果把对于事物的思考方式当做一个数学模型去看待,不断模仿并且试图接受这些结果,那我们将会失去我们的认知能力。

AlphaZero项目向我们诠释这场技术爆炸的威力,AlphaZero不仅技术所有棋师的水平之上,而且会用之前棋谱中从未有过的下法。可以通过几个小时自娱自乐,获得人类曾经1500年来所总结下来的经验教训。

而我们只需要做的就是把游戏规则告诉它。在它自己学习的过程中,完全没有进行任何人工干预。AlphaZero可以如此快的精通掌握下棋的技巧,那未来五年人工智能将会发展成什么样子?会对我们的下一代造成什么样的影响?

这些问题就留给那些在科学领域的专家们吧。哲学家和其他人文领域的专家,因为缺少对人工智能机制的了解、对它们能力感到害怕,所以塑造了一个不利于人工智能发展的观念。

但相反的,科学家们却一直尝试推动人工智能的发展,并让这些技术在商业领域推广利用。所以这些人的动机都是挖掘其潜力而非理解人工智能。

同样作为政府,最初也是投资于人工智能在安全和情报调查方面的应用,而并未去考虑人工智能会导致人类意识的变化。

启蒙运动开始于对新技术的哲学探索,但我们正在朝着相反的方向前进。

人工智能的发展潜移默化地指引了我们思考的方向。一些国家把人工智能作为国家发展战略计划,开始研究人工智能的发展和应用,这其中当然也不例外地包括美国。人们把人工智能放在至高无上的发展地位上,但从未思考过这样将会带来的冲击和后果。

虽然说我本人对人工智能的技术可能一窍不通,但在这里我想告诫那些一门心思钻研技术,而没有哲学思考和政治理念的人工智能开发人员,请认真思考这篇文章里我提出来的这些问题,并把这些思考放入到你们的技术研究之中。

相关报道:

https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/

关于车库咖啡

所属栏目: 孵化载体
声明:该文章版权归原作者所有,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系。
喜欢这篇
评论一下
评论
登录后发表评论
×

Tel:18514777506

关注微信公众号

下载APP