CN
|
EN
人工智能的问题远远比你想象的更为深刻
年度会议
道农
2018/03/29
摘要:
有着雄心壮志的中国的科技公司们,正在从互联网驱动转化为AI驱动。


  有着雄心壮志的中国的科技公司们,正在从互联网驱动转化为AI驱动。然而很多人只是将AI看做升级版的互联网,其实二者在内在逻辑上完全不同,AI的作用早已超越入口和流量,将成为改变商业模式每个参与者行为方式的引擎,就好比滴滴可以影响司机师傅们的收入,但并不会影响出租车乃至司机师傅们开车的方式,但无人驾驶出现之后呢?

  有一句话说的好:互联网驱动模式创新,而AI驱动产业升级。

  在今年的绿公司年会,企业家和业界学者们将探讨三个问题:

  AI科技已经发展到什么阶段,将会如何影响人们的生活?

  科技公司将如何赋能传统产业,有哪些技术已经得到应用?

  传统产业将如何与AI相结合创造新的生产力?

  参加本次绿公司年会之前,我们先从下面这篇文章对人工智能这个革命性的领域进行一些根本的探讨吧。

 

 

 

  换个角度看AI

  追溯人工智能研究的历史和哲学逻辑

 

  编译 | Zoe Zuo、HAPPEN、丁慧、小鱼

  来源 | 大数据文摘(BigDataDigest)

  

 

  人工智能发展迅速且应用广泛。现实生活中AI技术的发展听起来像科幻电影,而科幻电影则更像是另一种画面感十足的现实场景。经过几十年的探索,AI技术可以说已趋于成熟,然而人们依旧固执己见,业内人士乃至全世界都对其可行性仍持怀疑态度。

  类似的情形出现在玛丽•雪莱(Mary Shelley)创作的哥特式小说《弗兰肯斯坦》(Frankenstein)中。小说探讨了将人造生命创造出来并引入社会所产生的一系列后果。令我们困惑的是,书中的怪人一方面做出毫无人性的暴行,另一方面又展现出同人类一样的弱点,对友情的需求以及对于自我存在的危机感。

  有人说我们应该关注新发现的前景与后果。但是,如果把机器人大军引入到像当今社会这样复杂的系统后产生混乱呢?也有人说我们要关注取得的成就,以及那些将此类想法落地的成功案例。然而,在偶然的成功和理论支撑的结果之间我们又该如何抉择?

  

 

  不妨集中注意力,一起理智地来追溯AI的历史渊源吧!

  不管你感兴趣的是古希腊哲学家逻辑思考的规则,还是阿拉伯数学家的公式推导,亦或是19世纪欧洲知识分子对数学的狂热。一个不争的事实是:问题远远比你想象的更为深刻(即便考虑摩尔定律)。

 

  “我们日后成为什么样的人主要取决于父辈们在不经意间的教导,除此之外,我们由零零碎碎的智慧所塑造。”

  ——Umberto Eco

 

  本文接下来的内容将讨论AI的发展史,包括一些重要人物所提出的相关问题、论证和看法。其中涉及的事件大部分都发生在20世纪60年代左右,同时期,也逐渐形成了AI的正式定义、发展目标、科研群体与反对者等。

 

  机器可以思考吗?

 

  1950年,艾伦·图灵(Alan Turing)试图在他具有开创性意义的论文《计算机器与智能》中回答这个刻意简化的问题。论文部分内容的含义并不明确,而且限定了人们对人工智能的理解。为此图灵设计了一个思维实验,这就是著名的图灵测试:

  参与者A是男性,参与者B是女性,参与者C的性别未知。C扮演询问者的角色,虽然无法看到A和B,但可以用客观的语句和两人进行交流。通过向A和B提问,C要试着确定A和B的性别。A的任务是迷惑C,让C做出错误的决定,而B则要协助C做正确的决定。

  将问题重新设计,如下:

  如果由一台机器来扮演A的角色,会发生什么?这种情况下,询问者做出错误决定的频率会与角色A、B由两个真人扮演时一样吗?

  图灵的方法似乎遵从了鸭子测试(duck test)的原理:如果它看起来像只鸭子,像鸭子一样游泳,像鸭子一样嘎嘎叫,那它大概就是只鸭子。

  当谈及人类相关的智能,例如意识,图灵的观点是,不能因为某人(或某物)不具备尚未定义的特征而对其否定。因此,意识与我们对AI的探索无关。

  哥德尔不完备定理(Gödel’s incompleteness theorems)是我们试图谈论AI时面临的一大障碍。根据这一系列定理,数学逻辑无法具备完备性和相容性。因此,以数学逻辑进行学习的机器往往无法触及到一些真理。图灵对此的回应倒让人长舒一口气:你怎么知道人类智力就不存在局限性呢?

  小贴士:哥德尔不完备定理是库尔特·哥德尔于1931年证明并发表的两条定理。

 

  简单地说,第一条定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,就可以在其中构造在体系中不能被证明的真命题,因此通过推演不能得到所有真命题(即体系是不完备的)。

  把第一条定理的证明过程在体系内部形式化后,哥德尔证明了他的第二条定理。该定理指出:任何相容的形式系统,只要蕴涵皮亚诺算术公理,它就不能用于证明它本身的相容性。

 

  图灵的这篇论文论证充分,具有清晰的辩证结构,然而,因为论文推测的技术尚未被发现,图灵的论述也被搁置。

 

  迈向人工智能

 

  马文·明斯基(Marvin Minsky)是人工智能研究领域的先驱之一。翻开人工智能家族尘封的相册,明斯基就是给家庭聚餐添上些许不安的老人:“明斯基老叔,他迷人,与众不同,讲话总是很有趣。”

  明斯基是1956年达特茅斯会议(the Dartmouth Conference)的组织者之一。在这次会议上,Artificial Intelligence作为术语首次被提出,同时也作为一个领域而诞生。明斯基对AI的切实可行充满信心,但他不看好用错误的探索方式,他也因此被人们所铭记。

  1961年,明斯基被问及AI领域所取得的进展。让我们看看他说了什么:

 

  我们应该先问问什么是“真正的”智能?我觉得这更像是一个美学问题,或者关乎一种尊严感,而不是一个科技问题!对我来说,“智能”不过意味着各种性能的综合,我们关注这些性能但无法理解。所以,这个问题通常和数学上“深度”问题相伴相随。一个定理的证明一旦被真正理解,它的内容就变得无关紧要了。

 

  定义AI固然困难,明斯基承认这一点,因此他将继续探索。他的着手点是为AI确定几大发展支柱,即搜索、模式识别、学习、规划和归纳。

  项目的终极目的是通过探索获得AI的解决方案。通过模式识别可以确定适合AI的工具,通过学习以往的经验可以对现有的算法进行改善,通过规划可以更高效地研究AI。至于机器能否获得归纳与推理能力,明斯基说道:

 

  目前根据哥德尔不完备定理,还没有一个归纳推理系统能有效适用于所有体系。但是,给定一个体系(例如我们的世界)或者一些体系的集合,以及一套成功的标准,实现机器的认知就是技术性问题,而非空想。

 

  明斯基在接下来的回答中多次重申,要实现AI应该通过各种复杂的分层架构。基于这一点,他质疑感知机算法,因为这一算法连中等难度的问题都解决不了,何况实际问题更加复杂。

  明斯基的论断挫败了大众研究感知机的信心,从而耽误了深度学习的发展。通过进行深度架构,即使利用简单的构件也可以解决复杂的问题似乎在为明斯基开脱。不管怎样,明斯基的确具备独特的洞察力。

  然而,因为帮助业界发现了各种原始方法的缺陷,明斯基的言论具有建设性意义。此外,深度学习或许是目前为止我们所探索到的最佳算法(还催生了各种很棒的应用),但绝不是AI的终极算法。

 

  想法、大脑和程序

 

  1980年,约翰·希尔勒(John Searle)对于AI的发展很不满。尽管早些时候他强烈反对强人工智能的概念,但这次他决定公开反驳。事实上,即使标题听起来有些讽刺。但我仍感觉希尔勒在揪着我的衣领,大力挥舞他的手,指着我说:“年轻的小伙子,让我帮你从根本上区分一下吧。”

 

  “你可能会有这样的印象:AI领域中写有关强人工智能的人认为他们可以避重就轻,因为他们没有认真研究过这个理论,并认为其他人也一样。至少我会发声质疑,并认真研究。”

 

  希尔勒只攻击强人工智能这个概念,他认为这是一种计算机能够模仿任何人类行为的能力。而所谓计算机拥有认知能力的观点,亦可通过类比被推翻。由他提出的著名的思想实验“中文房间实验”论证了这一观点,实验过程如下:

  假定某人被关在一个只有中文字符的房间里,而他只懂英文,对中文则一窍不通,甚至说不出中文字符与日文字符的区别。他在屋内完全是通过英文规则手册操作着屋外递进来的中文纸片(问题),这些字符需要通过英文形式的句法来确认,之后通过摆弄这些字符再将信息递送出去(回答)。恭喜!通过这个程序你就学会了中文。

  这就是希尔勒于1980年提出的中文房间实验。思想实验本身并不是一个实验,因为它无法实际操作,而是探索一个想法的潜在结果。最古老也最有名的思想实验,可能是伽利略的比萨斜塔实验(你是否也认为伽利略真的从塔上往下扔苹果?)。

  希尔勒的观点是,能够给出中文问题答案并不意味着懂中文,而这种能力也并非取决于由哪种语言书写规则。因此,给予适当算法后产生预期输出的计算机,不是一个“会思考的”个体。

  就某些功能推理而言,希尔勒质疑的是一个程序的思考能力。他指责当今的AI研究人员存在行为主义和操作主义,试图将程序与头脑等同(事实也如此),而忽略了大脑的重要性。

  希尔勒认为,认知只源于生物行为;而程序可以完全独立运行(因为它不受硬件平台的限制),因此程序并不具备认知能力。

  当阅读他的原文时,你会感觉到希尔勒正在攻击一个尚未成熟的计算机科学家社区,而这个社区关于什么是智能并没有达成共识,只是试图通过技术手段和推测来模拟机器智能。

  如同一般哲学方法中的虚无主义一样,明斯基回应希尔勒:“应该忽视希尔勒的误解。”

 

  大象不会下棋

 

  即使大象不会下象棋,你也没有理由责备它们。“大象不会下象棋”( Elephants Don't Play Chess)是罗德尼·布鲁克斯(Rodney A. Brooks)在1990年发表的一篇论文,试图采用论据和他的机器人队伍来支持AI。罗德尼·布鲁克对AI的发展做出了卓越的贡献,经典的AI理论中应该有他的一席之地。

  在那个时代,人工智能正经历着第二个寒冬。企业和政府也意识到不能对AI抱有过高期望而削减了资金。

  所以是时候反省了。当一件事情从根本上失败时,有两种方式来理解:要么是这件事情不可能完成,要么采用了错误的方法。

  布鲁克斯认为AI停滞不前是因为研究人员过于关注函数表达式。符号系统假设就是关于机器智能如何运作存在已久的观点。根据这个假设,世界上的人、汽车和情感等众多实体,可以很自然地将它们与符号相匹配,并输入给计算机。如果该假设成立,那么只要提供必要的信息便能使计算机拥有智能。

  尽管这个假设看起来没有问题,但它在某种程度上误导了AI的发展:

  符号系统不足以描述整个世界。根据框架问题,定义任何尚未明确存在的事物是一种逻辑错误。因此,布鲁克斯建议:为什么不把整个世界作为它自己的模型?

  简单计算无法衍生机器智能。启发式算法的大量使用是训练智能算法的必经之路,但这与我们尝试创造知识的初衷背道而驰。(网格搜索是对人类智力的侮辱。)

  当AI的发展目标是寻求一种通用人工智能模型时,就出现了布鲁克斯称之为混淆的现象:大量的研究表明智能算法的适用场景并不明确。机器智能确实具有吸引力,正因为如此,人类对知识的探索才永无止境。

  布鲁克斯并不支持物理根据假设(physical grounding hypothesis)。也就是说,让人工智能直接与世界交互,并将其用作自己的表示。上述假设与AI现在的发展之间还有很大的差距:从学习需要巨大的计算资源、专家的指导到总不够用的训练数据;布鲁克斯还设想,为AI配备物理实体和廉价硬件并将其销售到世界各地。要解决这个问题并不容易。

  布鲁克斯认为机器智能是集群行为而不是复杂行为。或许他实验中最深刻的见解是,“目标导向行为源自于简单的无目标导向的交互行为。”无需预设协同模式,因为智能计算机可以制定出自己与世界交互的最佳策略。

  布鲁克斯关于AI发展的讨论为我们证明了物理根据假设的重要性:人类是我们最常见和最亲近的智能体。因此,当我们试图重新创造这种智能特征时,就需要观察人类文明缓慢的形成过程。如果考虑到人类学习智能行为所需的时间,如交互、繁衍和生存,与我们尚未成熟的下棋程序相比,便可以得出结论:学习行为或许是最难开发的技能,也是我们应该要关注的重点。

  布鲁克斯虽然对自己提出的实用方法很满意,但也承认其理论局限性,但他归因于学术界尚未提出让大家透彻理解人群动态交互行为理论。

  再一次,工程师漠视了哲学界的异议:

  “如果我们的策略不能说服高高在上的哲学家,至少我们的技术将彻底改变我们生活的世界。”

 

  AI的进步

 

  尽管涌现出大量问题,但是我们不能质疑AI的进步。不管怎样,目前得益于技术的进步出现了很多不错的AI应用。如果忽略它们的存在去衡量当前研究质量是没有意义的。

  深度学习是否能成为实现机器智能的有效工具?还是说,这是AI进入寒冬之前另一个间冰期?

  更重要的是,人们关注的角度已经开始从纯粹的哲学问题转向社会层面,而AI对日常生活的需求已远比理解概念、哲学和智能本身更加明显和迫切。不过,这种转变可能是一个更难以回答的问题,进而促使我们深入研究。

  当维特根斯坦(Wittgenstein)撰写《逻辑哲学论》的时候,他面临着为难的选择:他的论点与他的学说相悖。也就是说,如果他的学说是正确的话,那么他的论点就是不合逻辑的,因此他的学说应该是错误的。但是维特根斯坦对此有不同的看法:

 

  “我的论点可以这样解释:当人们从开始学习到彻底理解后,便会认为它毫无意义。”

 

  因此,我们需要用发展的眼光去理解隐含在复杂概念背后的真理。我们要坚定地迈出前进的步伐,也要做好随时放弃的准备。因为并不是每一步探索的结果都是正确的,但是我们需要理解每一步探索的过程。所以后来,当维特根斯坦谈到这个论点时,他说自己不需要梯子就能够直达真理。

  或许在AI的发展过程中,我们仍然需要参考维特根斯坦的论点。

  原文链接:

  https://medium.freecodecamp.org/deeper-ai-a104cf1bd04a