瑞恩巴贝尔(巴尔贝拉尔)

世界上的一切都是从无到有,从简单到复杂。我们的地球,地球上的生命,生命的智能,都是如此。

瑞恩巴贝尔(巴尔贝拉尔)

目录

1机器可计算性的理论发展

2机器可计算硬件的发展

3人工智能

4人工智能1.0-开端

5人工智能2.0-专家系统(数据库)

6人工智能3.0——机器学习(互联网)

7人工智能4.0——深度锻炼(大数据)

8人工智能大事记

1 机器可计算的理论发展

17世纪,德国数学家、哲学家戈特弗里德·威廉·莱布尼茨(1646-1716)曾设想能否创造出一种“通用的科学语言”,可以像数学一样用公式计算推理过程,从而得出正确的结论。由于当时的社会条件,他的想法没有实现。但是,他的思想是现代数理逻辑某些内容的萌芽。从这个意义上说,莱布尼茨可以说是数理逻辑的先驱。

1847年,英国数学家乔治·布尔(1815-1864年)发表了《逻辑的数学分析》,建立了“布尔代数”,创造了符号系统,用符号来表达逻辑中的各种概念。布尔建立了一系列运算规则,用代数方法研究逻辑问题,初步奠定了数理逻辑的基础。

1913年,英国哲学家伯特兰·罗素和他的老师阿尔弗雷德·诺斯·怀特海共同出版了一部以沈磊体系为基础的巨著《数学原理》。他们正式描述了数学的基础。这个描述成功地启发了德国数学家戴维·希尔伯特的推理思维。基于这种描述,希尔伯特在20世纪30年代向数学家们提出了一个难题:所有的数学推理都可以形式化吗?1931年,著名的奥地利裔美国数学家哥德尔提出了“不完全性定理”,首次解决了希尔伯特留下的数学难题:数学推理可以通过推理的形式形式化。

1936年,美国数学家阿隆佐·邱奇(1903-1995)和他的学生斯蒂芬·科尔·克莱尼创造了一种叫做λ微积分的方法来定义可计算的函数。

1936年,24岁的英国数学家和逻辑学家阿兰·麦席森·图灵(1912-1954年)发表了他的著名论文《论可计算数及其在密码学问题中的应用》,提出了“理想计算机”,后来被称为“图灵机”。图灵用数学证明了理论上存在“通用图灵机”,数字信号足以描述任何形式的计算,这为可计算性概念提供了严格的数学定义。图灵机成为现代通用数字计算机的数学模型,证明了通用数字计算机是可以制造的。

邱琦的λ演算和图灵机都表明:首先,数理逻辑具有一定的局限性;其次,他们证明了任何形式的数学推理在第一法则的约束下都有机械化的可能性。

1938年,美国数学家克劳德·艾尔伍德·香农(1916-2001)获得麻省理工学院电气工程硕士学位,硕士论文题目是《继电器和开关电路的符号分析》。当时他已经注意到电话交换电路和布尔代数的相似性,即布尔代数的“真”和“假”与电路系统的“开”和“关”相对应,分别用1和0表示。于是他用布尔代数来分析和优化开关电路,奠定了数字电路的理论基础。哈佛大学的哈沃德·加德纳教授说,“这可能是本世纪最重要、最著名的硕士论文。”

1938年,德国工程师康拉德·楚泽(1910-1995年)完成了可编程数字计算机Z-1。楚泽认为,计算机最重要的部分不一定是计算本身,而是过程和计算结果的传输和存储。

20世纪50年代,约翰·冯·诺依曼(1903~1957)提出了五构件和存储程序的概念。计算机由输入设备、存储器、控制器、运算器和输出设备组成。指令和数据可以一起存储在存储器中,程序可以按顺序自动执行。1945年6月,他写了一份101页的关于离散变量自动电子计算机的草稿,提出程序和数据应存储在计算机的内存中,并给出了一般电子计算机的基本架构。后来,这些想法被称为“冯·诺依曼结构”。

2 机器可计算的硬件发展

1822年,英国数学家和发明家查尔斯·巴贝奇设计了分析机。起初,计算机不是电子的,而是机械的。

1831年,美国科学家约瑟夫·约瑟夫·亨利(1797-1878)制造了一块电磁铁,然后用这块磁铁制造了一个继电器。继电器是机电计算机中使用的第一个电气元件。但电的作用不是作为信号,而是电磁感应原理的利用。

1903年,弗莱明通过在用True 空加热的电线(灯丝)前面加一块板,发明了第一个电子管。他把这种有两极的电子管称为二极管。电子管作为计算机的逻辑元件,其开关速度比继电器快。这个时候,电才真正作为信号功能存在。

1942年,美国人阿塔纳索夫和贝利设计了计算机ABC(阿塔纳索夫贝里计算机),完全采用真空管作为存储和运算元件。

1947年12月,贝尔实验室的肖克利、巴丁和布拉顿组成的研究小组研制出一种点接触型锗晶体管,特别适合用作开关。

1958年,费尔柴尔德公司的罗伯特·诺伊斯和TI公司的基尔比分别在相隔几个月的时间里发明了集成电路。通过氧化、光刻、扩散、外延和蒸铝等半导体制造工艺,将组成具有一定功能的电路所需的半导体、电阻、电容等元件以及它们之间的连接线全部集成在一小片硅片上,然后焊接封装在一个封装中的电子器件。

计算机逻辑元件的大趋势是体积越来越小,性能越来越高,价格越来越低。

3 人工智能

人工智能的定义可能会有不同的看法,但本质的东西应该还是算法、数据和硬件。如果有海量的数据,硬件的超强处理能力和合适的算法,机器智能会有很多可能性。

人工智能是计算机科学的一个分支。自20世纪70年代以来,它被称为世界三大前沿技术之一(空互技术、能源技术和人工智能)。也被认为是21世纪三大前沿技术(基因工程、纳米科学、人工智能)之一。

人工智能领域的研究包括机器人学、语言识别、图像识别、自然语言处理、专家系统、机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、自动规划、智能搜索、定理证明、博弈、自动编程、智能控制、遗传编程等。

根据智能机器是否能推理和解决问题(PROBLEM _ solution)并具有独立意识,分为强人工智能(自下而上的AI)和弱人工智能(自上而下的AI)。

4 人工智能1.0-开端

人工智能最基本的假设是人类的思维过程可以机械化。

1956年夏天,以麦卡锡、明斯基、罗切斯特、神农为首的一批有远见的青年科学家聚在一起,研究和讨论了用机器模拟智能的一系列相关问题,并首次提出了“人工智能”一词,这标志着“人工智能”这一新学科的正式诞生。

人工智能1.0时代,人工智能主要通过推理、搜索等简单规则处理问题,可以解决一些所谓的“玩具问题”,如迷宫、梵蒂冈问题等。

5 人工智能2.0-知识库系统(数据库)

计算机编程的快速发展极大地促进了人工智能的快速发展。随着计算机符号处理能力的不断提高,知识可以用符号结构来表示,推理简化为符号表达式的处理。这一系列研究推动了“知识库系统”(或称“专家系统”)的建立,如1965年爱德华·费根鲍姆等人开发的专家系统程序DENDRAL。

专家系统的缺点是知识描述非常复杂,需要不断升级。

6 人工智能3.0-机器学习(互联网)

在汹涌澎湃的数据支持下,人工智能从推理搜索升华到知识获取,最终进化到机器学习。早在1996年,人们就已经定义了机器学习,如何从经验学习中提升具体算法的性能。1997年,随着互联网的发展,机器学习被进一步定义为“一种能够通过经验自动改进计算机算法的研究”。

早期人工智能的主要目的是推理和演绎,但随着研究的深入和方向的转变,人们发现,工人智能的核心应该是让计算机变得智能,从而学会总结和综合,而不仅仅是演绎已有的知识。需要能够获取新的知识和技能,并识别现有的知识。

机器学习的基本结构可以表述为:环境向学习系统提供信息,学习系统利用这些信息修改知识库。在具体应用中,学习系统用这些信息修改知识库后,执行系统可以提高完成任务的范围和效率。执行系统根据知识库完成任务后,还可以将任务执行过程中获得的信息反馈给学习系统,使学习系统进一步扩展。

机器学习信息循环

简单来说,与2.0相比,3.0的人工智能可以自主更新或升级知识库。学习就是在处理海量数据的过程中自动学习判别方法,从而不断消化新知识。

机械学习的主要目的是从用户那里获取知识,输入数据,可以帮助解决更多的问题,减少错误,提高解决问题的效率。对于人工智能来说,机械学习从一开始就是非常重要的。1956年,在最初的达特茅斯夏季会议上,雷蒙德·索洛莫诺夫写了一篇关于无监督概率机械学习的文章:归纳推理的机器。

一般机器学习的数学基础是统计学,信息论,控制论。还包括其他非数学科目。这种“机器学习”高度依赖“经验”。计算机需要不断地从解决一类问题的经验中获取知识,学习策略。遇到类似问题时,他们可以像普通人一样,利用经验知识解决问题,积累新的经验。我们可以把这种学习方法称为“持续学习”。但人类除了从经验中学习,还可以创造,也就是“跨越式学习”。这在某些情况下被称为“灵感”或“顿悟”。一直以来,计算机最难学的就是“顿悟”。或者更严格地说,计算机在学习和实践中很难学会“独立于量变的质变”,很难直接从一种性质到另一种性质,或者从一种概念到另一种概念。正因为如此,这里的“修行”和人类的修行不是一回事。人类实践的过程既包括经验,也包括创造。

根据学习环境的不同,学习风格可以分为有监督学习和无监督学习。

6.1监督学习(监督学习)

监督学习,即在机械学习的过程中提供对错指令。通常,最终结果(0,1)包含在数据集中。让机器通过算法自己减少误差。这种学习主要用于分类和预测(回归和分类)。监督学习从给定的训练数据集中学习一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求包含输入和输出,也可以说是特征和目标。培养的目标是以人为标志的。常见的监督学习算法包括回归分析和统计分类。

6.2无监督学习(unsupervised learning)

无监督学习(Unsupervised learning)又称归纳学习,利用Kmeans,建立中心粒,利用迭代&下降(iteration & Descent)来减少误差,达到分类的目的。

机器学习的核心是数据分类,对其进行分类的方法(或算法)有很多,如决策树、正则化方法、朴素贝叶斯算法、人工神经网络等。

对于机器学习来说,需要解决如何让机器自己选择合适的特征量的问题。

7 人工智能4.0-深度学习(大数据)

大脑是一个巨大的记忆系统,它储存着一定程度上反映世界真实结构的经验,并能记住事件发生的顺序及其关系,并根据记忆做出预测。形成智力、感觉、创造力和感知。

人脑通过神经元传递信息,大量的神经元形成了神经网络。当某个神经元接收到刺激信号后,会传递到另一个神经元,这样就一层层传递到大脑进行处理,进而形成感知。就像传感器一样,当刺激达到一定值时,传感器就会做出反应;如果没有达到这个值,就不会形成反应。

深度学习的核心计算模型是人工神经网络。1943年,神经科学家沃伦·麦卡洛克和沃尔特·皮茨提出了一个大胆的假设,描述了人类神经节沿着网状结构传递和处理信息的模型。一方面,这个假设被神经科学家用来研究人类感知的原理;另一方面供计算机科学家进行人工智能的相关研究借鉴。后者在学术界也被称为人工神经网络。

人工神经网络根据神经元传递信息的方式对数据进行分类。我们可以在传输过程中设置权重。如果数据小于这个权重,就无法传递给下一个“神经元”。反之,如果数据大于这个权重,就会继续传递下去。在这个过程中,数据将被分类到不同的维度。

神经网络是一种运算模型,由大量相互连接的节点(或神经元)组成。每个节点代表一个特定的输出函数,称为激活函数。两个节点之间的连接表示通过该连接的信号的一个加权值,称为权重,相当于人工神经网络的记忆。根据网络的连接方式、权值和激励函数,网络的输出是不同的。最终整个神经网络会在不断的筛选和传递过程中逐渐逼近自然界中存在的某种算法或逻辑思维,而网络本身通常是自然界中某种算法或函数的近似,也可能是一种逻辑策略的表达。

20世纪40年代,唐纳德·赫布(Donald Hebb)将人工神经网络深入应用于机器学习,创立了早期的“赫布学习”理论。

“深度学习”这个词从1986年就开始流行了。但是等效深度学习理论并不能解决网络层次加深带来的很多问题,计算机的计算能力也远远达不到深度神经网络的需求。更重要的是,深度学习赖以发挥威力的海量数据还没有做好充分的准备。

和机器学习方法一样,深度机器学习方法也可以分为有监督学习和无监督学习。不同学习框架下建立的学习模型差别很大。例如,卷积神经网络(CNN)是深度监督学习下的机器学习模型,而深度信念网络(DBNs)是无监督学习下的机器学习模型。

2006年,深度学习领域的伟大领袖杰弗里·辛顿(Jeffrey Hinton)及其合作者以一篇题为《深度信念网络的快速学习算法》的论文宣布了深度学习时代的到来。通过教授深度计算机学习,有可能解决深层机制优化的问题。此外,深度学习结合多层结构学习算法可以利用空之间的相对关系来减少参数的数量,从而提高计算机的训练性能。

深度学习是机器学习中基于数据表示学习的方法。观察值(例如,图像)可以以多种方式表示,例如每个像素的强度值的向量,或者更抽象地表示为一系列边缘、具有特定形状的区域等。然而,通过使用一些特定的表示方法,从示例中学习任务(例如,人脸识别或面部表情识别)更容易。深度学习的优势在于无监督或半监督的特征学习和分层特征提取算法可以替代人工的特征获取。

深度学习是机器学习领域的一种算法,可以模拟人脑神经元的工作模式,构建一个机器神经网络。具有深度学习能力的计算机网络可以收集、处理和分析海量数据,最终通过自主学习实现图像、语音识别等智能行为。

在图像识别领域,深度学习的优势在于可以自动识别特征(不同于手动输入特征)。互联网将整个世界连接在一起,同时也连接了海量的数据,而深度学习正是依靠这些海量的数据来实现自搜索特征量,建立新的学习模型。

我们从原始人脑设计参数的人工智能到大数据驱动的人工智能的转变,其实是在某些领域的技术突破,主要是在某个特定领域超越人。比如最早深度学习做的语音识别系统,就大获成功。在人脸识别、图像分类、阿尔法狗、自动驾驶、医疗技术等方面都有很大的突破。这些学术上的突破,让计算机超越了人类,相当于在垂直领域跨过了一道门槛。过了这道坎,人工智能技术终于可以落地了,终于可以替代部分人力成本,帮助行业提高效率。你可以在某个特定领域打败别人。其实并不神奇,因为汽车在赛车领域已经打败了人类。可以说在特定领域打败人类并不是什么了不起的事情。但一般认为人工智能是机器人,可以超越人脑,控制人类。但其实这是一件很遥远的事情。真正在一线做人工智能研发的人不敢这么想,他们只致力于让机器做事先设计好的特定任务,绝不会有另一个任务依附于它。我们经常开玩笑说,李世石和阿尔法狗下棋之前,可能在赌博公司打了个赌,赌自己会输。然而阿尔法狗想不到这一点,所以虽然以为自己赢了,但其实输了。

现在人工智能和深度学习的门槛变得相对较低,只是因为它有开源系统。利用该系统,可以训练和应用模型。

8 人工智能大事记

308:拉蒙·伊勒尔(Ramon Llull),加泰罗尼亚诗人和神学家,出版了《Ars generalis ultima》(意为最终的综合艺术),详细阐述了他的理论:用机械的方法从一系列概念组合中创造出新的知识。

1666年:数学家和哲学家戈特弗里德·莱布尼茨出版了《论组合艺术》。他继承了雷蒙德·劳尔的思想。莱布尼茨认为,人类所有的创造力都来自几个简单概念的结合。

1726年:英国小说家乔纳森·斯威夫特(Jonathan Swift)出版了《格列佛游记》,书中描述了一种名叫“引擎”的机器,它位于拉普达岛。斯威夫特描述道,“用实用的和机械的方法来提高人们的批判性知识。”“最无知的人,不需要任何天才或学术能力,只要交一点学费和一点体力,就可以写出关于哲学、诗歌、政治、法律、数学和神学的书。”

1763年:托马斯·贝叶斯创建了一个框架,可以用来推理事件的可能性。最后,贝叶斯推理方法成为机器学习的主要理论。

1854年:乔治·布尔认为逻辑推理可以系统地进行,就像解方程一样。

1898年:在麦迪逊广场花园举行的电气展上,尼古拉·特斯拉展示了世界上第一艘无线电遥控船。根据特斯拉的描述,船只“借鉴了思想”。

1914年:西班牙工程师莱昂纳多·托雷斯(Leonardo Torres y Quevedo)展示了世界上第一台可以自动下棋的机器。这台机器可以自动下棋,无需人工干预。

1921年:捷克作家卡雷尔·恰佩克(Karel chapek)在其作品Rossum’s Universal Robots中首次使用“机器人”一词,该词来源于“机器人”。

1925年:无线电设备公司Houdina Radio Control展示了世界上第一辆无线控制的无人驾驶汽车,可以在纽约街头行驶。

1927年:科幻电影《大都会》上映。影片中,一个名叫玛利亚的农村女孩是2026年在柏林引发骚乱的机器人。那是机器人第一次出现在银幕上,然后《星球大战》里的“C-3PO”就是受它的启发。

1929年:西村真由(Makoto Nishimura)设计了“学习天演论”(Gakutensoku),在日语中是“学习自然规律”的意思。这是日本制造的第一个机器人。机器人可以通过空气压机制改变面部表情,移动头部和手部。

1943年:沃伦·s·麦卡洛克和沃尔特·皮茨在《数学生物物理学通报》上发表了一篇论文“神经活动中内在思想的逻辑演算”。这篇论文对后世影响很大。它讨论理想化和简化的人工神经网络,以及它们如何形成简单的逻辑功能。后来诞生的计算机“神经网络”(最后还有深度学习)就是受其启发,所谓的“模拟大脑”也来源于此。

1948年,美国应用数学家诺伯特·维纳(1894-1964-)发表了他的基础著作《控制论》,这标志着这一新兴边缘学科的诞生。这本书的副标题是“动物或机器中控制或通讯的科学”,这是他对控制论的定义。控制论(cybernetics)一词来源于希腊语kubernan,原意为舵手,即“掌舵人”,意为“管理人的艺术”。

1949年,埃德蒙·贝克莱出版了《巨型大脑:或者说会思考的机器》,他在书中写道:“最近,出现了大量新闻,谈论以极快的速度和极强的技能处理信息的奇怪的巨型机器……这种机器类似于大脑,由硬件和电缆组成,而不是血肉和神经……机器可以处理信息,并且可以,简言之,这种机器可以思考。”

1949年:唐纳德·赫布发表《行为的组织:一种神经心理学理论》。他提出了一个理论:根据猜想学习,这些猜想与神经网络高度相关,神经元的突触会随着时间而加强或减弱。

1950年:克劳德·香农出版了《为下棋编写计算机程序》。本文首先开始关注计算机象棋程序的发展。

1950年:艾伦·图灵(Alan Turing)发表了他的论文《计算机械与智能》(Computing Machinery and Intelligence),在论文中他谈到了“模仿游戏”的概念,也被称为“图灵测试”。

1951年:马文·明斯基和迪恩·埃德蒙兹开发了SNARC,是“随机神经模拟强化计算器”的缩写,意为“随机神经网络模拟强化计算器”。SNARC是第一个人工神经网络,用3000个true 空管模拟40个神经元的运行。

1952年:亚瑟·塞缪尔开发了第一个计算机跳棋程序,这也是世界上第一个可以自己学习的程序。

1955年8月31日:专家在一份提案中首次提出“AI(人工智能)”一词。该提案建议由10名专家组成的小组花2个月时间研究人工智能。这项提案是由达特茅斯学院的约翰·麦卡锡、哈佛大学的马文·明斯基、IBM的纳撒尼尔·罗彻斯特和贝尔电话实验室的克劳德·香农联合提交的。1956年七八月,研讨会正式召开,成为人工智能诞生的标志。

1955年12月:希尔伯特·西蒙和艾伦·纽厄尔开发了“逻辑理论”,这是世界上第一个人工智能项目。罗素和怀特海的《数学原理》第二章有52个定理,AI可以证明其中的38个。

1957年:弗兰克·罗森布拉特(Frank Rosenblatt)开发了“感知机”(Perceptron),这是一种人工神经网络,可以通过使用两层计算机来学习网络识别模式。根据《纽约时报》发表的一篇文章,感知器是电子计算机的原型。美国海军预测,未来它可以自己走路、说话、看东西、写字,还可以自己生产,感觉自己的存在。《纽约客》认为这是一台“令人惊叹的机器……值得思考。”

1958年:约翰·麦卡锡开发了编程语言Lisp,最终成为人工智能研究中最受欢迎的编程语言。

1959年:亚瑟·塞缪尔创造了“机器学习”这个术语。在他的论文中,他谈到了一个允许计算机学习如何下棋的程序。象棋可以超越程序开发者。

1959年:奥利弗·塞尔福里奇(Oliver Selfridge)发表了一篇论文《Pandemonium:一种学习的范式》(Pandemonium:A Paradigm for Learning),他在论文中描述了一种处理模型,通过这种模型,计算机可以在没有预设的情况下识别新模式。

1959年:约翰·麦卡锡发表了他的论文《常识程序》。在他的论文中,他谈到了Advice Taker,这是一个可以通过控制正式语言中的句子来解决问题的程序。它的最终目标是开发一个能够像人类一样学习过去经验的程序。

1961年:第一台工业机器人Unimate在新泽西州通用汽车公司的装配线上投入使用。

1961年:詹姆斯·斯拉格(James Slagle)开发出SAINT(符号自动积分程序),这是一个启发式程序,可以有效解决大一学生微积分符号的积分问题。

1964年:丹尼尔·鲍勃罗完成了他在麻省理工学院的博士论文“计算机问题解决系统的自然语言输入”。Bob还开发了STUDENT,一个用于自然语言理解的计算机程序。

1965年:希尔伯特·西蒙预言,在20年内,机器可以做人类能做的事情。

1965年:赫伯特·德雷福斯出版《炼金术与人工智能》。他认为智能不同于计算机,有些限制无法被打破,直接导致AI无法进步。

1965年,古德在《关于第一台超智能机器的推测》中写道:“第一台超智能机器将是人类的最终发明。这台机器足够温顺,可以告诉我们如何控制它。”

1965年:Joseph Weizenbaum开发了ELIZA,一个交互程序,可以进行任何话题的英语对话。有人想给计算机程序赋予人类的感情,威森班对此感到震惊。他只开发程序来证明机器和人的交流是肤浅的。

1965年:费根鲍姆、布鲁斯·G·布坎南、莱德伯格和卡尔·翟若适在斯坦福大学学习了DENDRAL。这是第一个专家系统,可以自动作出决定,并解决有机化学问题。其目的是研究假设信息,建立科学经验归纳模型。

1966年:机器人Shakey诞生。它是第一个为通用目的开发的移动机器人,它可以逻辑地形成自己的动作。1970年,《生活》杂志称其为“第一个电子人”。文章还引用计算机科学家马文·明斯基话说:“在三到八年内,机器的智能可以达到普通人的平均水平。”

1968年:电影《2001年泰空漫游》上映,电影中的角色哈尔是一台具有感知能力的电脑。

1968年:Terry Winograd开发了SHRDLU,一个理解早期语言的计算机程序。

1969年:阿瑟·布莱特恩和何·禺期在他们的论文中描述了反向传播可以作为一种多阶段动态系统优化方法。这是一种学习算法,可应用于多层人工神经网络。深度学习在2000-2010年的巨大成功,离不开它的启发。后期计算机性能突飞猛进,可以适应庞大网络的训练。

1969年:马文·明斯基和西蒙·派珀特联合出版了《感知机:计算几何导论》。1988年,这本书被扩充并再版。在书中,两位作者表示,1969年得出的结论显著减少了神经网络研究所需的资金。作者说:“我们认为,由于缺乏基础理论,研究已经基本处于停滞状态…到了20世纪60年代,人们已经做了很多认知演算的实验,但是没有人能够解释为什么系统能够识别特定的模式,而其他模式却不能。”

1970年:第一个人形机器人诞生了,这是日本早稻田大学研制的WABOT-1。它包括肢体控制系统、视觉系统和对话系统。

1972年:MYCIN是早期的专家系统,可以识别引起严重传染病的细菌,并推荐抗生素。这个系统是由斯坦福大学开发的。

1973年:詹姆斯·莱特希尔(James Lighthill)向英国科学研究委员会提交了一份报告,介绍了AI研究的现状。他总结道:“到目前为止,人工智能各个领域的发现并没有带来预期的重大影响。”最终,政府对人工智能研究的热情下降了。

1976年:计算机科学家雷伊·雷蒂发表了他的论文《机器语音识别:综述》,总结了自然语言处理的早期工作。

1978年:卡内基梅隆大学开发了XCON程序,这是一个基于规则开发的专家系统。它可以辅助DEC VAX电脑,根据客户要求自动选择元件。

1979年:在没有任何干预的情况下,斯坦福车自动穿过一个摆满椅子的房间,来回行驶了5个小时。相当于早期的无人驾驶汽车。

1980年:日本早稻田大学研制出Wabot-2机器人,这是一种人形音乐机器人,可以与人交流,阅读乐谱,弹奏普通难度的电子琴。

1981年:日本国际贸易和工业部投资8.5亿美元用于“第五代计算机”项目,该项目旨在开发能够像人一样说话、翻译语言、解释图片和推理的计算机。

1984年:电影《电梦》上映,讲述了一个男人,一个女人,一台电脑的三角恋故事。

1984年:在一年一度的AAAI大会上,罗杰·尚克(Roger Schank)和马文·明斯基发出警告,称“AI冬天”已经到来,AI泡沫将很快破裂,AI投资和研究资金也将减少,就像20世纪70年代发生的那样。

1986年:在恩斯特·迪克曼斯(Ernst Dickmanns)的指导下,慕尼黑大学研发出第一辆无人驾驶汽车,这是一辆装有摄像头和传感器的奔驰面包车,座位上没有人,最高时速为55英里。

1987年:时任苹果CEO的约翰·斯卡利在Educom做主题演讲,谈“知识导航器”的概念。他描述了一个诱人的未来:“我们可以将知识应用与智能代理连接起来,智能代理依赖于网络,可以接触大量的数字信息。”

1988年:朱迪亚·珀尔发表了《智能系统中的概率推理》。2011年,珀尔获得了图灵奖。获奖感言介绍,“朱迪亚·珀尔找到了在不确定条件下处理信息的具体特征,奠定了计算基础。人们认为他是贝叶斯网络的发明者,贝叶斯网络是一套数据形式系统,可以确定复杂的概率模型,并在推断这些模型时成为主导算法。”

1988年:罗洛·卡彭特(Rollo Carpenter)开发出聊天机器人Jabberwacky,可以以有趣、娱乐、幽默的形式模拟人类对话。卡彭特进行了独特的尝试,通过与人互动来开发AI。

1988年:IBM沃森研究中心出版了《语言翻译的统计方法》,标志着这一转变的开始。之前我们采用的是基于规则的机器翻译概率方法,现在开始向“机器学习”转变,基于已知案例的数据分析,而不是对手头任务的理解。IBM的项目叫做Candide,可以成功地在英语和法语之间进行翻译。这个系统基于220万对句子。

1988年:马文·明斯基和西蒙·派珀特出版了《感知机》一书,该书于1969年首次出版,随后在1988年进行了扩充和重印。两人解释了转载的原因:“为什么AI领域的研究没有突破?因为研究者对历史不熟悉,所以总会犯一些前人已经犯过的错误。”

1989年:Yann LeCun和T Bell Laboratories的AT &其他研究人员联手成功地将反向传播算法应用于多层神经网络,可以识别手写的邮政编码。因为当时硬件的限制,训练神经网络花了三天时间。

1990年:罗德尼·布鲁克斯发表了《lephants不下棋》,他提出了一种新的AI方法:利用环境交互来重建智能系统和特殊机器人。布鲁克斯说:“世界是我们最好的模型…关键是要正确感知,保持足够高的频率。”

1993年:Vernor Vinge发表了《即将到来的技术奇点》。他预言在30年内,我们可以通过科技创造出超级智慧的人。简而言之,人类将走向灭亡。

1995年:理查德·华莱士开发了聊天机器人A.L.I.C.E(人工语言互联网计算机实体的缩写),其灵感来自伊莱扎。随着互联网的出现,互联网为华莱士提供了大量的自然语言数据样本。

1997年:Sepp Hochreiter和Jürgen Schmidhuber提出了LSTM(长时和短时记忆)的概念。今天的递归神经网络就是用这种方法开发的,可以识别笔迹和语音。

1997年:IBM开发的深蓝打败了人类国际象棋冠军。

1998年:戴夫·汉普顿(Dave Hampton)和凯勒·钟(Caleb Chung)开发了第一个家庭机器人Furby,或称宠物机器人。

1998年:Yann LeCun合作发表论文,讲的是神经网络对笔迹的识别和反向传播的优化。

2000年:麻省理工学院的研究人员Cynthia Breazeal开发了Kismet,这是一个可以识别和模拟面部表情的机器人。

2000年:本田推出ASIMO,这是一种人工智能人形机器人,可以像人一样快速行走,可以在餐厅给客人夹菜。

2001年:斯皮尔伯格的电影《人工智能》上映。在电影中,机器人很像人类的孩子。它的程序是独一无二的,它有爱的能力。

2004年:第一届DARPA自动驾驶汽车挑战赛在莫哈韦沙漠举行。不幸的是,没有一辆自动驾驶汽车完成了150英里的挑战目标。

2006年:Geoffrey Hinton出版了《学习多层表达》。他首先提出了“机器阅读”这个术语。所谓机器阅读,就是系统可以在没有人类监督的情况下,自动学习文本。

2007年:Geoffrey Hinton出版了《学习多层表达》。根据他的构想,我们可以开发一个多层的神经网络,它包括自上而下的连接点,可以生成一个感觉数据训练系统,而不是通过分类来训练。Hinton的理论指导我们进行深度学习。

2007年:李菲菲和他在普林斯顿大学的同事开始研究ImageNet,这是一个由大量带注释的图像组成的大型数据库,旨在协助视觉对象识别软件的研究。

2009年:拉杰特·刘冰、阿南德·马德哈万和吴恩达发表了他们的论文“使用图形处理器的大规模深度无监督学习”。他们认为“现代图形处理器的计算能力远远优于多核CPU,GPU有能力带来深度无监督学习方法的变革。”

2009年:谷歌开始秘密研发无人驾驶汽车。2014年,谷歌在内华达州通过了自动驾驶测试。

2009年,西北大学智能信息实验室的研究人员开发了Stats Monkey,这是一个可以在没有人工干预的情况下自动撰写体育新闻的程序。

2010年:举办ImageNet大规模视觉识别挑战赛(ILSVCR)。

2011年:在德国交通标志识别比赛中,一个卷积神经网络成为获胜者,其识别率高达99.46%,对人类而言约为99.22%。

2011年:IBM开发的自然语言问答计算机Watson处于“危险边缘”(Jeopardy!)击败了两位前冠军。

2011年:瑞士Dalle Molle人工智能研究所发布报告称,利用卷积神经网络进行手写识别的错误率仅为0.27%,而前几年为0.35-0.40%,有了很大的进步。

2012年6月:杰夫·迪恩和吴恩达发布了一份报告,介绍了他们完成的一项实验。两人向一个大型神经网络展示了1000万张未标记的图像。这些图像是从YouTube视频中随机选取的,发现其中一个人工神经元对猫的图像特别敏感。

2012年10月:多伦多大学设计的卷积神经网络参加了ImageNet大规模视觉识别挑战赛(ILSVCR),其错误率仅为16%,比上一年25%的错误率有了很大的改善。

2016年3月:谷歌DeepMind开发的AlphaGo击败围棋冠军李世石。

9 相关概念

技术奇点:指机器智能超越人类智能的临界点。在数学中,奇点是函数中无法处理的点。然而在物理学中,奇点是一个体积、密度、引力和时间空曲率都无限大的点。在这一点上,已知的物理定律并不适用。奇点人工智能研究所成立于2000年,由雷·库兹韦尔(Ray Kurzweil)担任名誉主席,目标是开发第一个种子人工智能(Seed AI)。2006年5月,世界上第一次技术奇点会议在斯坦福大学举行。

赛博博格(Cyberborg):是“控制论有机体”的简称,即人造人和生化电子人,指的是由有机体和机械部分混合而成的有机体。身体在日本相当于假肢。曾经被认为属于科幻世界的赛博坦,现在正在成为现实。

硅基生命:指碳基生命以外的生命形式。这个概念早在19世纪就出现了。1891年,波茨坦大学的天体物理学家朱利叶斯·谢纳在他的一篇文章中讨论了硅基生命的可能性。目前,我们使用的计算机是由硅制成的。如果这台计算机更先进,发展成智能计算机,那就是硅基生命。或许,网络世界将会是一个以硅为基础的世界。而未来的人类将是碳基生命和硅基生命的结合。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/256359.html

发表回复

登录后才能评论