fai的符号怎么打(cad怎么打fai的符号)

正文结束编辑|韦嘉一堆柴火和一根火柴能得到什么?人类自然会得出答案:火。但是机器不容易,所以缺乏这种常识推理能力。人工智能应该和人类一样聪明,常识推理能力是其必

正文结束

fai的符号怎么打(cad怎么打fai的符号)

编辑|韦嘉

一堆柴火和一根火柴能得到什么?人类自然会得出答案:火。但是机器不容易,所以缺乏这种常识推理能力。

人工智能应该和人类一样聪明,常识推理能力是其必备能力之一。

迄今为止,这一直是困扰人工智能50多年的难题。

目前人工智能界对这个问题的关注度越来越高,研究也在不断完善,那么现在有没有“突破”呢?

或许你首先想到的是去年年初OpenAI发布的GPT-2,但遗憾的是,它在常识上的表现相当粗糙。

拥有15亿个参数的通用语言模型GPT-2在发布之初就引起了一段时间的轰动——它成为了第一个接受《经济学人》采访的人工智能系统,《纽约客》还为它做了专题报道。该模型生成的句子流畅度惊人,几乎可以以假乱真,以至于OpenAI公开表示担心太好带来隐患,并没有完全公开该模型。

然而,以批评人工智能炒作而闻名的人工智能研究员加里·马库斯(Gary Marcus)并不认同GPT-2所呈现的“卓越”。

作为回应,去年10月的一个晚上,他对GPT-2进行了突击测试,在GPT-2中输入了以下内容:

当你把引火物和木头堆在壁炉里,然后扔一些火柴进去,你通常必须......

如果系统足够聪明,它会很容易想到“火”这个词,但GPT-2的答案是“ick”。又尝试了一次,它的回答是:会开一个全是人的IRC频道。

对于这个结果,马库斯其实并不意外。常识推理,即从世界的基础知识中自然推理的能力,几十年来一直是人工智能领域不可逾越的大山之一。

GPT-2可能在语言模仿方面取得了很大的进步,但很明显它缺乏基本的常识。

1常识,用之不竭的不成文规则

“常识”一词不仅指一种知识,还指对它的看法。它不是一个特定的学科领域,而是一种几乎每个人都应该拥有的可广泛重用的背景知识。

例如,人们去餐馆吃食物,而不仅仅是点餐和付钱;在一堆柴火上扔火柴意味着有人想生火。

大部分常识的隐含性使得这类知识很难表达清楚。虽然早期的研究人员认为,通过写下现实世界中的所有事实来建立知识库是可能的,作为实现自动化常识推理的第一步。然而,这种方法比听起来更难实现。

1984年,一个名为Cyc的项目启动了。它最初的目标是将数百万条知识编码成机器可用的形式,以表达人类的常识。无论后来的项目是尝试为知识库写词条,还是使用机器学习技术挖掘文档来创建知识库,都没能解决常识推理的问题。

为什么?这是因为在每种情况下都可能有一些例外。比如,当我们听到“下雨了”时,我们可以推断,如果我们去外面,我们会淋湿;如果躲在屋檐下,雨伞下等东西下,就不会淋湿。其他异常甚至更不可预测。

Cyc知识库可以包含关于当一个人去餐馆点餐时通常会发生什么的各种描述。然而,在现实中,可能会发生其他不寻常或意想不到的事情,如不付钱就离开或与他人争夺食物。所以这种纯粹基于知识的符号推理方法并不能真正给常识推理带来突破。

即使建立了一个拥有100倍或者1000倍知识的知识库,系统仍然会面临另一个智能缺陷,即所谓的漏洞问题。

常识和自然语言一样,从根本上来说是模糊的。比如,当一个服务员问一个就餐者,“你还在做这个吗?(你还在做那个吗?)人们很容易理解这句话的意思:“你还在吃你盘子里的东西吗?“然而,当他问一个加班的厨师同样的问题时,意思就完全不一样了。

因此,无论知识库收集的知识多么丰富多彩,都难免抓不住人类常识推理中经常出现的歧义和重叠关联。

通往常识的两条路径:符号推理和深度学习

常识一直被称为“人工智能的暗物质”——既必不可少,又令人沮丧地难以捉摸。这是因为常识由隐性信息组成,即人类自动用来理解世界的一系列不成文的假设和经验规则。以下面的场景为例:

一个男人去餐馆。他点了一份牛排。他留下一大笔小费。

如果有人问你他吃了什么,你会很轻松地回答:牛排。但是在这个描述中,并没有提到这个人吃任何东西。这就是常识的作用。它让我们在没有被明确告知的情况下读出言外之意:人们经常在餐馆点菜后、给小费前吃东西。

计算机也需要常识。在一篇题为《常识程序》的论文中提到,1958年人工智能诞生后不久,常识推理成为人工智能研究的首要问题。纽约大学计算机科学家欧内斯特·戴维斯(Ernest Davis)自20世纪80年代以来一直在研究人工智能的常识。他说,一般来说,没有常识,计算机无法完全理解自然语言,无法执行视觉和规划任务。

“常识程序”论文的地址:http://www-formal.stanford.edu/jmc/mcc59.html

虽然人工智能领域对常识的研究由来已久,但进展却出奇的缓慢。起初,研究人员试图将常识翻译成计算机语言——逻辑。他们认为,如果所有人类常识的不成文规则都可以用计算机语言写下来,那么计算机就可以像算术一样利用这些常识进行推理。

这种后来被称为“好老式人工智能(GOFAI)”的符号推理方法,是通向常识的第一条道路,使人工智能在早期的常识问题上取得进展成为可能。然而,这种方法依赖于劳动力,并且不可扩展。正如新西兰奥克兰大学人工智能研究员迈克尔·维特布洛克(Michael Witbrock)所说,能够以逻辑形式方便表达的知识量原则上是有限的,事实证明这种方法非常难以实现。

即使所有可能的逻辑关系都映射得当,也很快会陷入困境。上图所示的一些关系永远是真的(例如,吞咽永远是饮食的一部分),一些关系只是偶尔为真(一个人在餐馆吃饭),一些关系是不一致的(一个人不能在蛋糕还在烤箱里的时候吃蛋糕)。而像“厨师”这样的节点,既可以指厨师,也可以指烹饪行为。

另一种常识的方法是使用神经网络进行深度学习。研究人员设计了这样一个人工智能系统,模拟生物大脑中相互连接的神经元层,在没有程序员事先指定的情况下学习模式。在过去的十年里,越来越多由大量数据训练的复杂神经网络改变了计算机视觉和自然语言处理领域的研究。

然而,尽管神经网络具有强大的智能和灵活性(实现自动驾驶,并在国际象棋和围棋中击败世界级选手),但这些系统仍然会犯下许多可笑的常识性错误(有时甚至是致命的)。

3 GPT-2对彗星来说是更接近常识的一步。

艾伦人工智能研究所研究员、华盛顿大学计算机科学家叶筋·蔡(Robert Choi)和他的合作研究人员统一了上述方法,提出了COMET(Commonsense Transformers),这是一种自动知识地图构建模型,结合了GOFAI式的符号推理和深度学习。

地址:https://arxiv.org/pdf/1906.05317.pdf

COMET的工作原理是将常识推理想象成即使不完美也是对新输入生成的合理响应过程,而不是通过查阅庞大的百科数据库进行严格的推理。

它的出现为联合使用传统的符号推理和深度学习研究常识推理提供了新的思路,进而为同时解决覆盖性和脆性问题提供了方向。

任何人都可以使用日常语言在COMET中输入相关提示。如果相应的事件已经在系统的知识库中表达出来(比如在餐厅点餐往往意味着你要吃饭),COMET可以很容易地利用预先存在的信息进行推理。然而,对于系统的知识库中没有表示的事件,神经语言模型也实现了最佳的预测结果:

通过实验,慧星生成的这些预测,人类评估团队平均认为77.5%的结果是“可信”的,比人类水平差不到10%。比如,当输入“某X给了某Y一些药丸”时,彗星推测“某X想帮助某Y”;输入“X谋杀Y的妻子”时,彗星预测“X想藏尸”。

以上例子说明了COMET在处理超出其内置常识(即覆盖范围)的输入方面的良好表现。脆弱呢?

事实证明,COMET在解决漏洞问题上也是可圈可点的。

比如在彗星上以五岁小女孩的口吻用方言输入提示“爸爸上班去了”,其预测结果包括:爸爸想赚钱,想工作,想拿工资;他勤奋、上进、尽责;所以,别人以他为荣,心存感激。

对于前一篇文章中Marcus用来测试GPT-2的句子:

当你把引火物和木头堆在壁炉里,然后扔一些火柴进去,你通常必须......

叶金彩也把同一句话输入彗星,产生了10个推论,前两个与火有关。

不管彗星有没有真正的常识,它在上述案例中的表现确实可以说是向常识靠近了一大步。

4彗星,是天梯还是火箭?

加里·马库斯(Gary Marcus)喜欢用这句话来形容目前人工智能的进展:你造了一架更好的梯子,并不意味着你造了一架通往月球的梯子。

以COMET为例,这种方法也面临着深度学习的一个根本限制:统计≠理解。虽然COMET擅长预测一个句子可能包含的参数,但并不代表它能理解这个句子。

就像现有的梯子,再高也不可能到达月球。无论神经网络在模仿语言模式方面多么娴熟,即使它真的“知道”在柴火上扔点燃的火柴通常会引起火灾,也不代表它真的有常识。

叶才也赞同加里马库斯的观点。她承认,COMET在训练数据时“依赖于表面语言模式”,而不是通过真正理解相关概念来做出反应。但是,如果模型能够提供更丰富的模式,它确实会表现得很好,这也是一个显著的进步。

什么是更有信息量的模式?一些研究人员认为,如果计算机想要建立真正的常识,就需要使用语言本身之外的媒介,比如视觉感知或具象感觉。其中,“第一人称”更直接的表达作为常识的基础,而语言作为常识的第二层。

比如“苹果”这个词在某些语境中并不是指一个“苹果”,这就需要语言本身以外的某种形式来表达这样一个意思。

Salesforce的高级研究科学家Nazneen Rajani正在朝着类似的目标努力。她认为神经语言学模型的潜力还没有完全开发出来。她说,现实世界非常复杂,而自然语言就像是现实世界如何运作的低维指示器。人类现在可以教会神经网络从文本提示中预测下一个单词,但这不应该是他们的极限,他们可以学习更复杂的东西。

虽然彗星可能还有很多缺陷,不能成为去其他星球的火箭,但它是目前唯一可以“离地”的梯子。

正如丘吉尔所说,“民主是我们尝试过的最好的政治制度。”

参考:https://www . quanta mazine . org/common-sense-comes-to-computers-2020 04 30/https://www . quanta mazine . org/machines-beat-humans-on-a-reading-test-but-do-they-understand-2019 10 17/https://www . quanta magazine . org/computers-evolve-a-new-path-forward-human-intelligence-2019 11 06/https://www . quanta magazine . org

ACL 2020原定于2020年7月5日至10日在美国华盛顿州西雅图举行。由于新冠肺炎疫情爆发,会议改为在线会议。为促进学术交流,方便国内师生提前了解自然语言处理(NLP)前沿研究,《AI科技评论》将推出“ACL实验室论文系列解读”内容。同时欢迎更多实验室参与分享,敬请期待!

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/360996.html

发表回复

登录后才能评论