换个角度看AI:追溯人工智能研究的历史和哲学逻辑

原标题:换个角度看AI:追溯人工智能研究的历史和哲学逻辑

大数据文摘作品

编译:Zoe ZuoHAPPEN丁慧、小鱼

正如题图所示,仿生人会梦见电子羊吗?

(译者注:Do Androids Dream of Electric Sheep?是Philip K. Dick所著的一本科幻小说,讲述人类在一个崩坏的环境中复制自己并奴役这些仿生人的故事。)

人工智能发展迅速且应用广泛。现实生活中AI技术的发展听起来像科幻电影,而科幻电影则更像是另一种画面感十足的现实场景。经过几十年的探索,AI技术可以说已趋于成熟,然而人们依旧固执己见,业内人士乃至全世界都对其可行性仍持怀疑态度。

类似的情形出现在玛丽•雪莱(Mary Shelley)创作的哥特式小说《弗兰肯斯坦》(Frankenstein)中。小说探讨了将人造生命创造出来并引入社会所产生的一系列后果。令我们困惑的是,书中的怪人一方面做出毫无人性的暴行,另一方面又展现出同人类一样的弱点,对友情的需求以及对于自我存在的危机感。

有人说我们应该关注新发现的前景与后果。但是,如果把机器人大军引入到像当今社会这样复杂的系统后产生混乱呢?也有人说我们要关注取得的成就,以及那些将此类想法落地的成功案例。然而,在偶然的成功和理论支撑的结果之间我们又该如何抉择?

不妨集中注意力,一起理智地来追溯AI的历史渊源吧!

不管你感兴趣的是古希腊哲学家逻辑思考的规则,还是阿拉伯数学家的公式推导,亦或是19世纪欧洲知识分子对数学的狂热。一个不争的事实是:问题远远比你想象的更为深刻(即便考虑摩尔定律)。

“我们日后成为什么样的人主要取决于父辈们在不经意间的教导,除此之外,我们由零零碎碎的智慧所塑造。”

——Umberto Eco

“我们日后成为什么样的人主要取决于父辈们在不经意间的教导,除此之外,我们由零零碎碎的智慧所塑造。”

——Umberto Eco

本文接下来的内容将讨论AI的发展史,包括一些重要人物所提出的相关问题、论证和看法。其中涉及的事件大部分都发生在20世纪60年代左右,同时期,也逐渐形成了AI的正式定义、发展目标、科研群体与反对者等。

机器可以思考吗?

机器可以思考吗?

1950年,艾伦·图灵(Alan Turing)试图在他具有开创性意义的论文《计算机器与智能》中回答这个刻意简化的问题。论文部分内容的含义并不明确,而且限定了人们对人工智能的理解。为此图灵设计了一个思维实验,这就是著名的图灵测试

参与者A是男性,参与者B是女性,参与者C的性别未知。C扮演询问者的角色,虽然无法看到A和B,但可以用客观的语句和两人进行交流。通过向A和B提问,C要试着确定A和B的性别。A的任务是迷惑C,让C做出错误的决定,而B则要协助C做正确的决定。

将问题重新设计,如下:

如果由一台机器来扮演A的角色,会发生什么?这种情况下,询问者做出错误决定的频率会与角色A、B由两个真人扮演时一样吗?

图灵的方法似乎遵从了鸭子测试(duck test)的原理:如果它看起来像只鸭子,像鸭子一样游泳,像鸭子一样嘎嘎叫,那它大概就是只鸭子。

当谈及人类相关的智能,例如意识,图灵的观点是,不能因为某人(或某物)不具备尚未定义的特征而对其否定。因此,意识与我们对AI的探索无关。

哥德尔不完备定理(Gödel’s incompleteness theorems)是我们试图谈论AI时面临的一大障碍。根据这一系列定理,数学逻辑无法具备完备性和相容性。因此,以数学逻辑进行学习的机器往往无法触及到一些真理。图灵对此的回应倒让人长舒一口气:你怎么知道人类智力就不存在局限性呢?

小贴士:哥德尔不完备定理是库尔特·哥德尔于1931年证明并发表的两条定理。

简单地说,第一条定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,就可以在其中构造在体系中不能被证明的真命题,因此通过推演不能得到所有真命题(即体系是不完备的)。

把第一条定理的证明过程在体系内部形式化后,哥德尔证明了他的第二条定理。该定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,它就不能用于证明它本身的相容性。

简单地说,第一条定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,就可以在其中构造在体系中不能被证明的真命题,因此通过推演不能得到所有真命题(即体系是不完备的)。

把第一条定理的证明过程在体系内部形式化后,哥德尔证明了他的第二条定理。该定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,它就不能用于证明它本身的相容性。

图灵的这篇论文论证充分,具有清晰的辩证结构,然而,因为论文推测的技术尚未被发现,图灵的论述也被搁置。

迈向人工智能

迈向人工智能

马文·明斯基(Marvin Minsky)是人工智能研究领域的先驱之一。翻开人工智能家族尘封的相册,明斯基就是给家庭聚餐添上些许不安的老人:“明斯基老叔,他迷人,与众不同,讲话总是很有趣。”

明斯基是1956年达特茅斯会议(the Dartmouth Conference)的组织者之一。在这次会议上,Artificial Intelligence作为术语首次被提出,同时也作为一个领域而诞生。明斯基对AI的切实可行充满信心,但他不看好用错误的探索方式,他也因此被人们所铭记。

1961年,明斯基被问及AI领域所取得的进展。让我们看看他说了什么:

我们应该先问问什么是“真正的”智能?我觉得这更像是一个美学问题,或者关乎一种尊严感,而不是一个科技问题!对我来说,“智能”不过意味着各种性能的综合,我们关注这些性能但无法理解。所以,这个问题通常和数学上“深度”问题相伴相随。一个定理的证明一旦被真正理解,它的内容就变得无关紧要了。

我们应该先问问什么是“真正的”智能?我觉得这更像是一个美学问题,或者关乎一种尊严感,而不是一个科技问题!对我来说,“智能”不过意味着各种性能的综合,我们关注这些性能但无法理解。所以,这个问题通常和数学上“深度”问题相伴相随。一个定理的证明一旦被真正理解,它的内容就变得无关紧要了。

定义AI固然困难,明斯基承认这一点,因此他将继续探索。他的着手点是为AI确定几大发展支柱,即搜索、模式识别、学习、规划和归纳。

项目的终极目的是通过探索获得AI的解决方案。通过模式识别可以确定适合AI的工具,通过学习以往的经验可以对现有的算法进行改善,通过规划可以更高效地研究AI。至于机器能否获得归纳与推理能力,明斯基说道:

目前根据哥德尔不完备定理,还没有一个归纳推理系统能有效适用于所有体系。但是,给定一个体系(例如我们的世界)或者一些体系的集合,以及一套成功的标准,实现机器的认知就是技术性问题,而非空想。

目前根据哥德尔不完备定理,还没有一个归纳推理系统能有效适用于所有体系。但是,给定一个体系(例如我们的世界)或者一些体系的集合,以及一套成功的标准,实现机器的认知就是技术性问题,而非空想。

明斯基在接下来的回答中多次重申,要实现AI应该通过各种复杂的分层架构。基于这一点,他质疑感知机算法,因为这一算法连中等难度的问题都解决不了,何况实际问题更加复杂。

明斯基的论断挫败了大众研究感知机的信心,从而耽误了深度学习的发展。通过进行深度架构,即使利用简单的构件也可以解决复杂的问题似乎在为明斯基开脱。不管怎样,明斯基的确具备独特的洞察力。

然而,因为帮助业界发现了各种原始方法的缺陷,明斯基的言论具有建设性意义。此外,深度学习或许是目前为止我们所探索到的最佳算法(还催生了各种很棒的应用),但绝不是AI的终极算法。

想法、大脑和程序

想法、大脑和程序

1980年,约翰·希尔勒(John Searle)对于AI的发展很不满。尽管早些时候他强烈反对强人工智能的概念,但这次他决定公开反驳。事实上,即使标题听起来有些讽刺。但我仍感觉希尔勒在揪着我的衣领,大力挥舞他的手,指着我说:“年轻的小伙子,让我帮你从根本上区分一下吧。”

“你可能会有这样的印象:AI领域中写有关强人工智能的人认为他们可以避重就轻,因为他们没有认真研究过这个理论,并认为其他人也一样。至少我会发声质疑,并认真研究。”

“你可能会有这样的印象:AI领域中写有关强人工智能的人认为他们可以避重就轻,因为他们没有认真研究过这个理论,并认为其他人也一样。至少我会发声质疑,并认真研究。”

希尔勒只攻击强人工智能这个概念,他认为这是一种计算机能够模仿任何人类行为的能力。而所谓计算机拥有认知能力的观点,亦可通过类比被推翻。由他提出的著名的思想实验“中文房间实验”论证了这一观点,实验过程如下:

假定某人被关在一个只有中文字符的房间里,而他只懂英文,对中文则一窍不通,甚至说不出中文字符与日文字符的区别。他在屋内完全是通过英文规则手册操作着屋外递进来的中文纸片(问题),这些字符需要通过英文形式的句法来确认,之后通过摆弄这些字符再将信息递送出去(回答)。恭喜!通过这个程序你就学会了中文。

这就是希尔勒于1980年提出的中文房间实验。思想实验本身并不是一个实验,因为它无法实际操作,而是探索一个想法的潜在结果。最古老也最有名的思想实验,可能是伽利略的比萨斜塔实验(你是否也认为伽利略真的从塔上往下扔苹果?)。

希尔勒的观点是,能够给出中文问题答案并不意味着懂中文,而这种能力也并非取决于由哪种语言书写规则。因此,给予适当算法后产生预期输出的计算机,不是一个“会思考的”个体。

就某些功能推理而言,希尔勒质疑的是一个程序的思考能力。他指责当今的AI研究人员存在行为主义和操作主义,试图将程序与头脑等同(事实也如此),而忽略了大脑的重要性。

希尔勒认为,认知只源于生物行为;而程序可以完全独立运行(因为它不受硬件平台的限制),因此程序并不具备认知能力。

当阅读他的原文时,你会感觉到希尔勒正在攻击一个尚未成熟的计算机科学家社区,而这个社区关于什么是智能并没有达成共识,只是试图通过技术手段和推测来模拟机器智能。

如同一般哲学方法中的虚无主义一样,明斯基回应希尔勒:“应该忽视希尔勒的误解。”

大象不会下棋

大象不会下棋

即使大象不会下象棋,你也没有理由责备它们。“大象不会下象棋”( Elephants Don't Play Chess)是罗德尼·布鲁克斯(Rodney A. Brooks)在1990年发表的一篇论文,试图采用论据和他的机器人队伍来支持AI。罗德尼·布鲁克对AI的发展做出了卓越的贡献,经典的AI理论中应该有他的一席之地。

在那个时代,人工智能正经历着第二个寒冬。企业和政府也意识到不能对AI抱有过高期望而削减了资金。

所以是时候反省了。当一件事情从根本上失败时,有两种方式来理解:要么是这件事情不可能完成,要么采用了错误的方法。

布鲁克斯认为AI停滞不前是因为研究人员过于关注函数表达式。符号系统假设就是关于机器智能如何运作存在已久的观点。根据这个假设,世界上的人、汽车和情感等众多实体,可以很自然地将它们与符号相匹配,并输入给计算机。如果该假设成立,那么只要提供必要的信息便能使计算机拥有智能。

尽管这个假设看起来没有问题,但它在某种程度上误导了AI的发展:

符号系统不足以描述整个世界。根据框架问题,定义任何尚未明确存在的事物是一种逻辑错误。因此,布鲁克斯建议:为什么不把整个世界作为它自己的模型?

简单计算无法衍生机器智能。启发式算法的大量使用是训练智能算法的必经之路,但这与我们尝试创造知识的初衷背道而驰。(网格搜索是对人类智力的侮辱。)

当AI的发展目标是寻求一种通用人工智能模型时,就出现了布鲁克斯称之为混淆的现象:大量的研究表明智能算法的适用场景并不明确。机器智能确实具有吸引力,正因为如此,人类对知识的探索才永无止境。

布鲁克斯并不支持物理根据假设(physical grounding hypothesis)。也就是说,让人工智能直接与世界交互,并将其用作自己的表示。上述假设与AI现在的发展之间还有很大的差距:从学习需要巨大的计算资源、专家的指导到总不够用的训练数据;布鲁克斯还设想,为AI配备物理实体和廉价硬件并将其销售到世界各地。要解决这个问题并不容易。

布鲁克斯认为机器智能是集群行为而不是复杂行为。或许他实验中最深刻的见解是,“目标导向行为源自于简单的无目标导向的交互行为。”无需预设协同模式,因为智能计算机可以制定出自己与世界交互的最佳策略。

布鲁克斯关于AI发展的讨论为我们证明了物理根据假设的重要性:人类是我们最常见和最亲近的智能体。因此,当我们试图重新创造这种智能特征时,就需要观察人类文明缓慢的形成过程。如果考虑到人类学习智能行为所需的时间,如交互、繁衍和生存,与我们尚未成熟的下棋程序相比,便可以得出结论:学习行为或许是最难开发的技能,也是我们应该要关注的重点。

布鲁克斯虽然对自己提出的实用方法很满意,但也承认其理论局限性,但他归因于学术界尚未提出让大家透彻理解人群动态交互行为理论。

再一次,工程师漠视了哲学界的异议:

“如果我们的策略不能说服高高在上的哲学家,至少我们的技术将彻底改变我们生活的世界。”

“如果我们的策略不能说服高高在上的哲学家,至少我们的技术将彻底改变我们生活的世界。”

AI的进步

AI的进步

尽管涌现出大量问题,但是我们不能质疑AI的进步。不管怎样,目前得益于技术的进步出现了很多不错的AI应用。如果忽略它们的存在去衡量当前研究质量是没有意义的。

深度学习是否能成为实现机器智能的有效工具?还是说,这是AI进入寒冬之前另一个间冰期?

更重要的是,人们关注的角度已经开始从纯粹的哲学问题转向社会层面,而AI对日常生活的需求已远比理解概念、哲学和智能本身更加明显和迫切。不过,这种转变可能是一个更难以回答的问题,进而促使我们深入研究。

当维特根斯坦(Wittgenstein)撰写《逻辑哲学论》的时候,他面临着为难的选择:他的论点与他的学说相悖。也就是说,如果他的学说是正确的话,那么他的论点就是不合逻辑的,因此他的学说应该是错误的。但是维特根斯坦对此有不同的看法:

“我的论点可以这样解释:当人们从开始学习到彻底理解后,便会认为它毫无意义。”

“我的论点可以这样解释:当人们从开始学习到彻底理解后,便会认为它毫无意义。”

因此,我们需要用发展的眼光去理解隐含在复杂概念背后的真理。我们要坚定地迈出前进的步伐,也要做好随时放弃的准备。因为并不是每一步探索的结果都是正确的,但是我们需要理解每一步探索的过程。所以后来,当维特根斯坦谈到这个论点时,他说自己不需要梯子就能够直达真理。

或许在AI的发展过程中,我们仍然需要参考维特根斯坦的论点。

原文链接:

https://medium.freecodecamp.org/deeper-ai-a104cf1bd04a返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
推荐阅读