读书笔记之《智慧的疆界:从图灵机到人工智能》

大模型机器学习数据库

《智慧的疆界:从图灵机到人工智能》这本书由周志明撰写,全面回顾了人工智能(AI)的历史、理论基础以及其未来发展的可能性。书中通过多个章节详细介绍了从早期计算理论的建立到现代深度学习时代的演变过程,并探讨了不同学派的思想和技术贡献。

picture.image

周志明:Java技术、机器学习和企业级开发技术专家,现任远光软件研究院院长,人工智能博士。开源技术的积极倡导者和推动者,对计算机科学和相关的多个领域都有深刻的见解,尤其是人工智能、Java技术和敏捷开发等领域。曾受邀在InfoQ和IBMDeveloperWorks等网站撰写技术专栏。著作颇丰,著有《深入理解Java虚拟机》《深入理解OSGi》,翻译了《Java虚拟机规范》等著作。

第一部分:以智慧创造智慧

第1章 洪荒年代

本章概述了“人工智能”概念的起源及其早期发展。它不仅讲述了图灵机作为计算理论基石的重要性,还探讨了二战期间信息科学和电子计算机发明对AI研究的影响。作者强调了这一时期对于后来AI发展的关键作用,并引出了图灵测试的概念,即如何定义智能的问题。此外,也提到了机器能否思考的哲学讨论,为后续章节奠定了基础。

一个是来自数学的观点,机器拥有智能的反对意见主要来自于哥德尔不完备定理,该定理证明了一个反科学直觉的结论:“如果一个形式系统是不含矛盾的,那就不可能在该系统内部证明系统的不矛盾性。”

哥德尔不完备定理对机械智能的限制是:它决定了无论人类造出多么精致、复杂的机器,只要它还是机器,就将对应一个形式系统,就能找到一个在该系统内不可证的公式而使之受到哥德尔不完备定理的打击,机器不能把这个公式作为定理推导出来,但是人心却能看出公式是真的。因此这台机器不可能是承载思维的一个恰当模型。也就是说,如果可以通过图灵测试的智能是基于某种能够承载该形式系统的运算器(譬如基于图灵机)来实现的话,那在进行图灵测试时,就一定能找到一个问题,是这个机器必定回答不了的,这就成悖论了。

图灵对这个问题的看法是:尽管哥德尔不完备定理可以证明任何一台特定机器的能力都是有极限的,但是并没有证据说明人类智能就没有这种局限性。这句话的隐含意思是,没有证据证明人类智能不是被某个特定形式系统(如图灵机或者其他系统模型)所抽象概括的,就这样,图灵把“不能解决所有问题”的锅从机器甩回给了人类。

对意识理解的局限性,是今天很多人理解人工智能的一个思想误区,总觉得机器必须实现和人类那样自我意识的思考才是真正的人工智能。在2015年3月,语言和认知学家诺姆·乔姆斯基(Avram Chomsky,1928——)和物理学家克劳斯有过一场对话,乔姆斯基再次被问到了“机器能思考吗?”这个问题,他反问道:“潜艇能够游泳吗? 如果机器实现了意识的外现的结果,但是意识的内涵(原文使用的是潜意识‘Preconsciousness’这个词)和人类的不一样,那机器可以被认为是有意识的吗?”如果非要让机器具备人类思维所定义的意识,乔姆斯基直接引用图灵对这个问题所说的话来反驳:“这没有讨论的意义”(Too Meaningless to Deserve Discussion)。

直接设计一个对等于成年人思维的机械智能无疑是困难而复杂的,因为一个成年人的大脑,除了出生时初始的生物状态之外,他所接受的教育以及那些经历的不能称为教育的事情,都会导致他大脑中各种细节发生变化。那能否将问题简化,先尝试设计一个等同于初生婴儿大脑的机械智能呢?这个机械智能可以没有任何预置的知识,对世界的认知可以如同白纸一般,它只需要具有学习进化的能力即可。如果将这个智能定义为“学习机器(Learning Machine)”,那创造人工智能的过程就可以分解为建造一部学习机器以及对这部机器的教育过程两个部分。

第2章 迈向人工智能

继续讲述AI的历史进程,特别是1956年的达特茅斯会议标志着AI作为一个独立学科正式诞生。作者描述了早期的研究成果与学术界的争论,包括符号主义、连接主义等不同流派之间的竞争与合作。同时,还提及了一些重要的里程碑事件,如IBM深蓝战胜国际象棋世界冠军卡斯帕罗夫等。

对于“杂耍学”,香农是当作人生目标去追求的,他并非没有意识到这是大众眼中“浪费时间”的事情。在一次采访中,香农自己说道:“我常常随着自己的兴趣做事,不太看重它们最后产生的价值,更不在乎这事儿对于世界的价值。我花了很多时间在纯粹没什么用的东西上。”游戏人生这四个字说来简单,但真的在荣誉等身的那一刻毅然放弃一切,不去管世界怎么想怎么看,这确实并非常人所能做到,甚至并非我们常人所能理解。

第二部分:学派争鸣

第3章 符号主义学派

深入探讨了符号主义的核心思想——使用逻辑规则来表示知识并进行推理。该学派认为,通过编程可以模拟人类的认知过程,从而实现智能化行为。书中列举了许多基于此原理开发出来的系统,如专家系统,并分析了它们的优势及局限性。

专家系统确实在特定领域取得了不小的成功,计算机代替领域专家完成了一部分的工作,部分缓解了组织里专家稀缺的问题。但专家系统遇到的最大困难也恰恰在于领域业务专家的稀缺和不可代替的价值上,建设任何软件系统都离不开相应的业务专家,但是在建设专家系统上这个问题尤其严峻突出,所有存储于系统知识库的知识都要来依赖专家去输入、配置、维护和更新,这极大地限制了专家系统建设的效率,甚至动摇了其建设的可行性。当专家系统中知识的累积速度落后于这个领域知识的更新速度时,这个系统的价值就会逐渐降低,系统的生命周期也将渐渐趋向于死亡淘汰。在80年代中后期,日本经济最为发达的时候,曾经尝试过以倾举国之力去建设他们称之为“第五代机”的专家系统,但最终也是因设定的目标过高而以失败告终,这是人工智能发展史上的一大挫折。

第4章 连接主义学派

聚焦于神经网络模型及其背后的生物学启发机制。连接主义者相信大脑中的神经元结构是理解智能的关键所在,因此试图模仿这些生物特性构建人工神经网络。尽管在20世纪70年代经历了所谓的“AI寒冬”,但随着硬件性能提升和算法改进,连接主义最终迎来了复兴,并成为当今最流行的方法之一。

1949年,赫布出版了《行为组织学》(Organization of Behavior)一书。在该书中,赫布总结提出了被后人称为“赫布法则”(Hebb's Law)的学习机制。他认为如果两个神经元细胞总是同时被激活的话,它们之间就会出现某种关联,同时激活的概率越高,这种关联程度也会越高。如果我们基于前文的M-P神经元模型来理解这句话的话,可以理解为:如果两个神经元同时激发,则它们之间的连接权重就会增加;如果只有某个神经元单独激发,则它们之间的连接权重就应减少。赫布学习规则是最古老的也是最简单的神经网络学习规则。如果仅局限于神经网络方法范围内而言,机器学习的本质就是调节神经元之间的连接权重,即赫布法则中的神经元关联程度。

第5章 行为主义学派

介绍了控制论及其衍生的行为主义观点,主张智能体应该能够根据环境反馈调整自身动作。这种思路被应用于机器人学等领域,在没有明确编程的情况下让机器学会执行任务。作者特别提到了维纳关于“智能性原则”的论述,即智能行为可以通过信息、通信、控制和反馈机制来解释。

童年的经历令维纳患上了抑郁症,而且终身都没有治愈,以至于在他心中长期萦绕着没有根据的莫名的背叛感,甚至多次产生自杀的念头。日后维纳在与政府、军方、媒体和其他学者交往时表现出来的不安全感,还有其他性格上的缺陷都可以解释为由此引发。严苛的教育还让维纳从小就患上深度近视,后来发展到必须扶着墙才能走路的程度。

接主义学派使用的是生物仿生学的方法,通过模拟生物体的脑部组织结构去寻找智能,它关心的是承载智能的生理结构;符号主义学派使用的是逻辑推理和演算的方法,通过解析物理符号系统假说和启发式搜索原理去寻找智能,它关心的是承载智能的心理结构和逻辑结构;而行为主义学派使用“感知——动作”的研究方法,通过环境反馈和智能行为之间的因果联系去寻找智能,既不关心智能的载体和其内部的生理结构,也不关心智能的逻辑和心理结构,只关心智能的外部可观察到的行为表现。如果要用最简单的一句话进行总结,我们可以说连接主义学派在研究“大脑”(Brain),符号主义学派在研究“心智”(Mind),行为主义学派则在研究“行为”(Action)。

第三部分:第三波高潮

第6章 什么是机器学习

解释了机器学习的基本概念,即让计算机自动地从数据中获取模式并做出预测或决策。这部分内容涵盖了监督学习、非监督学习等多种方法,并说明了它们在实际应用中的重要性。此外,还讨论了评估模型性能的标准以及如何防止过拟合等问题。

机器学习在一定程度上把“黑盒”的思想带进计算机中,用机器学习处理问题,并不追求一开始就找到问题解决的办法或处理过程的精确细节,而是让计算机用某些被先验证实是行之有效的基本模式去模拟问题中的数据发展变化,试图用足够大量的反映现实现象的数据来直接驱动机器去模拟并拟合这些已知的现象,然后去预测那些具备相同规律但还未知的现象。说白了,机器学习是在追求让人类不用再去思考和设计的可能,让人类只需收集到足够的经验数据,让计算机能够自己去琢磨,找到模拟的办法,进而解决问题。

机器学习解决问题的过程是充满灵活性的,从如何把问题设计出来,把现实世界中的问题,提炼成一个机器学习处理的问题开始,就需要处理者对问题本身有深刻的洞察才行。数据清洗到特征筛选,到模型选择、模型优化,再到模型验证这些步骤,都伴随着好坏优劣的价值判断,这些判断不存在统一的标准和方法,均需要解决者深入具体问题,很多还需要不断尝试才能得出满意的结果。目前的机器学习理论,距离实现自动化,不再需要人类去参与的算法,还是相当的遥远。

我们将“泛化能力”(Generalization Ability),就是机器学习算法对新鲜样本的适应能力,作为衡量机器学习模型的最关键的性能指标,性能良好的模型,就意味着对满足相同分布规律的、训练集以外的数据也会具有良好的适应能力。

1997年,两位数学家威廉·麦克雷迪(William Macready)和戴维·沃尔珀特(David Wolpert)深入研究并解决了“终极算法”问题,它们通过数理逻辑严格地证明一个结论:

假设所有问题出现的机会相等,或者说所有问题都是同等重要的,那不论学习算法A有多“聪明”,学习算法B有多“笨拙”,它们的性能期望都是相同的。这个定理蕴含了一个听起来颇违反直觉的事实:如果一个算法对于某类型的问题比另外的算法效率高,那么它一定不具有普适性,一定存在另外某一类问题使得这个算法的性能低于随机选择的结果。简而言之,对于通用问题,高效与普适是一对矛盾。这条定理被麦克雷迪和沃尔珀特很形象地命名为“没有免费的午餐定理”(No Free Lunch Theorem,NLFT)。“没有免费的午餐定理”让我们得以认清楚一个事实:若脱离实际情况,空谈哪一种机器学习算法更好毫无意义,那无论是怎样的算法,无论它有多复杂,它和随机抛几枚硬币来胡乱猜测参数值这样的方法所取得的效果都是一样的。要谈论一种算法的优劣,一定必须是在具体问题下才有相对优和劣的概念,没有绝对最好的“终极算法”存在,在某些问题上表现好的学习算法,在另一问题上就一定会不尽如人意。

第7章 深度学习时代

重点在于近年来兴起的深度学习技术,特别是多层神经网络架构如卷积神经网络(CNNs)、循环神经网络(RNNs)。作者指出,由于大数据集可用性和GPU加速计算能力的提高,使得训练深层网络成为可能,进而推动了图像识别、语音处理等多个领域的突破性进展。

一直到2006年之前,经过三十多年的耕耘,辛顿在人工神经网络领域已经算是一位泰斗级人物,硕果累累,荣誉等身,1998年就被选为英国皇家学会院士。但辛顿在学术上的成就,还是抵不过大众脑海里“神经网络是没有前途”的偏见,在很长一段时间里,多伦多大学计算机系私下流行着一句对新生的警告:“不要去辛顿的实验室,那是没有前途的地方。”即使如此,辛顿依然不为所动,仍坚持自己的神经网络研究方向没有丝毫动摇。据说为了给自己减压打气,他还养成了一种自我激励的特殊方法,每周发泄般大吼一次:“我发现大脑是怎样工作的啦!”这样的习惯,至今都还一直保持下来。在这三十多年的时间里,神经网络相关学术论文都很难得到发表,但辛顿仍坚持写了两百多篇不同方法和方向的研究论文,这为后来的神经网络的多点突破打下了坚实的基础。

假如,只能选一件事情来代表辛顿对人工智能最具价值的贡献的话,笔者的选择不是他发表的二百多篇论文,不是对神经网络度过生存危机有非常巨大的意义和价值的误差反向传播算法,不是他与大卫·艾克利(David Ackley,1947——)和特里·赛杰诺斯基(Terry Sejnowski,1947——)共同发明的“受限玻尔兹曼机”(Restricted Boltzmann Machine,RBM),也不是后来以受限玻尔兹曼机为基础,进一步演化出来的深度信念网络,而是他三十多年坚持不懈,开创了深度学习这门机器学习的分支,成功扭转了全世界对神经网络前景的看法,为后来的研究者打开了通向神经网络和机器学习新世界的大门。

神经网络最“神奇”的地方便是只需知道输入和输出便可训练网络参数,不需要弄懂中间有什么理论和规律,使用这种“端到端”(End-to-End)的学习方法,就能得到一个能够预测其他未知数据的“黑箱”。

生成式对抗网络的发明者伊恩·古德费洛(Ian Goodfellow):对某个特定问题,神经网络的深度越深,可以达到的拟合精确度就越高。

除了拟合能力和运算资源的限制外,以单隐层神经网络为代表的浅层学习算法局限性在于特征选择过于依赖人类先验知识,很多问题中人类难以描述清楚哪些特征对解决问题是重要的,这需要相当的工程技巧和问题领域的专业知识。人类做好特征选择并非易事。所以,深度学习能够自动找出关键特征的特性,是对应用神经网络解决机器学习问题的极大解放,这点是深度学习的革命性突破。

第四部分:人机共生

第8章 天才还是白痴?

探讨了人机协作的可能性,提出了“增强型智能”的概念,即利用AI工具扩展人的能力而非替代之。书中引用了AlphaGo的例子,展示了当机器与人类共同工作时所能达到的新高度。最后,作者对未来进行了展望,呼吁人们关注伦理问题并积极参与塑造一个更加和谐的人工智能社会。

这是一本对于AI外行人士非常友好的一本入门科普图书,读完可以对AI领域有一个全貌全景的了解。本书最棒的地方在于:将很多AI专家个人的经历融入进去,比如香农玩杂耍,维纳患上抑郁症,辛顿辗转多所大学任教等,不仅增强了可读性,而且给人以AI以外的巨大启发。五星好评!

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论