当前位置:首页 > 资讯 > 正文

人类倾向于高估人工智能的进步,低估自身智能的复杂性

导读:有很多关于人工智能的书。亚马逊网站上就有20,000本。其中很多书都有戏剧性的标题,比如《生命3.0》 ,《终极算法》 ,尤其是《奇点来临》。 梅勒妮 米切尔的新书的标题《AI3.0》更加谦虚。但是在我看来,在这个主题上,它是最有智慧的书。作者是波特兰州立...

有很多关于人工智能的书。亚马逊网站上就有20,000本。其中很多书都有戏剧性的标题,比如《生命3.0》 ,《终极算法》 ,尤其是《奇点来临》。

梅勒妮 米切尔的新书的标题《AI3.0》更加谦虚。但是在我看来,在这个主题上,它是最有智慧的书。作者是波特兰州立大学的计算机科学教授,同时也是圣菲研究所科学委员会的外部教授和联合主席,是畅销书《复杂》的作者。而且,与这个领域的大多数活跃的从业者不同,她对人工智能的现状和前景的评估是可以衡量的,谨慎的,而且常常是怀疑的。

这本书的序言: 恐惧”是一个关于她如何与人工智能相结合的个人故事,灵感来自侯世达的神书GEB(哥德尔,埃舍尔,巴赫)。凭借着运气、胆识和毅力,Mitchell 先是成为了 Hofstadter 的研究生,后来又成为了他手下的教授的博士生。几十年后的2014年,在与Hofstadter 一起参加的谷歌(Google)会议上,她了解到,Hofstadter 对一个人工智能程序击败了国际象棋世界冠军,而另一个程序创作的音乐“作品”与肖邦(Chopin)的真正作品几乎没有区别(甚至评价更好)感到不安。Hofstadter 的担忧激发了她去写追求人类水平的人工智能(甚至更高)。

本书分为五个部分: 背景; 观察与学习; 游戏与学习; 人工智能与自然语言的结合; 意义的障碍。尽管米切尔事先声明,这本书并不打算成为人工智能的全面概述或历史,但为了正确地看待当今热情洋溢的乐观情绪,她仍然设法讲述了足够多的人工智能历史尤其是1956年由John McCarthy、Marvin Minsky、Allen Newell和Herbert simon主持的达特茅斯会议。

人类倾向于高估人工智能的进步,低估自身智能的复杂性  第1张

正如米切尔解释的那样,人工智能研究的第一个分支是人工神经网络(ANN) ,它是当今深度学习算法的基矗她提供了一个这样的人工神经网络的例子,“感知器”设计来“学习”如何识别手写数字。说明性的网格是18 × 18,每个正方形有四种颜色: 白色,浅灰色,深灰色和黑色。

奇怪的是,她甚至没有提到这样一个相对温和的 ANN 的基本问题: 在这种情况下,不同可能的不同输入的数量是2的326次方(2326) ,或者:136,703,170,298,938,245,273,281,389,194,851,335,334,573,089,430,825,777,276,610,662,900,622,062,449,960,995,201,469,573,563,940,864

这样的程序实际上是不可测试的。(这对于更有限的8 × 8二进制网格来说是正确的,她稍后在另一个上下文中讨论了这个问题。在这种情况下,可能出现的病例数量只有2的64次方(264) ,即18,446,744,073,709,551,616。)

这个问题将反复困扰今天的惊人成功的深度学习计划,正如米切尔在本书后面的一些详细论证。

书中简要讨论了著名的图灵测试,开创性的数学家图灵(Alan Turing )在1950年提出(称之为模仿游戏测试) ,作为一种可操作的验证智力的方法。图灵测试相当于说,如果美国宇航局像一些阴谋论者所坚持的那样,在伪造月球的问题上做得更好的话,它本可以成功登陆月球的。米切尔指出,使用微不足道的聊天机器人,天真的测试人员可以轻而易举地通过图灵测试,但她自己并不对测试本身的有效性做出判断。

在《AI3.0》这本书的第二部分中,米切尔阐述了图像识别和机器学习的困难,特别是深度学习。她从这张黑白照片开始:

人类倾向于高估人工智能的进步,低估自身智能的复杂性  第2张

一张丰富细节的,且有着故事的照片。人工智能图像识别程序很难解释它,除非标注它包含一只狗。

尽管照片中有一些可以辨认出来的东西一只狗,一个穿着迷彩服的女人,一束花,一台笔记本电脑,一句欢迎回家!这张照片讲述了一个故事,这就是为什么它被评为2015年50张最佳军事照片之一的原因。现有的人工智能程序无法理解它。例如,微软的 CaptionBot 声称“我可以理解任何照片的内容,我会试着像描述任何人一样描述它”,但在这张照片中却屡屡失败,给出了“我现在似乎不舒服”的借口。以后再试。”当我用谷歌图片搜索的时候,谷歌只找到了那只狗。在做出这个决定之后,谷歌提供了大量“非常相似”的图片,其中唯一的共同点就是一只狗。

这仅仅是对米切尔关于图像识别,深度学习程序如何工作,以及它们表面上的成功的脆弱性的更深入讨论的介绍。在人工智能领域很有名,但在外界却鲜为人知(对我来说也是如此) ,你可以把一个可辨认的图像变成一个明显相同的图像,人工智能程序可以自信地认定这个图像是你喜欢的任何东西,包括一些完全不同的东西。米切尔举了几个例子,包括这一对:

人类倾向于高估人工智能的进步,低估自身智能的复杂性  第3张

一个可识别的图像可以不知不觉地被改变,这样它就会被图像识别软件误认。(左) : 原图: 照片正确识别为一辆校车。(中间) : 应用于原始图像的差异造成错误识别。(右图) : 一辆校车的照片显然被误认为是鸵鸟。

也许更令人震惊的是电视上的雪和抽象的几何图案被认定为特定的实体(同样,非常有信心) :

人类倾向于高估人工智能的进步,低估自身智能的复杂性  第4张

电视上的雪花图案和被人工智能识别为特定对象的抽象几何图案。

正如米切尔总结的那样,这表明这些图像识别程序并没有学习我们认为它们正在学习的东西。出于某种原因,米切尔将题为“关于可信赖和道德的人工智能”的章节放在第二部分(观察和学习) ,而不是放在结论部分,因为它更适合放在那里。她用了13页的篇幅来谈论这个话题是不够的,这个话题甚至在 ********* ( ********* )上也得到了更为彻底的讨论更不用说成千上万的网站,甚至整本书了。

在《AI3.0》这本书第三部分,学会玩,米切尔恢复了她的热情和她的熟练掌握。虽然这部分还是很简短,但她关于机器狗如何学会踢足球和电脑程序如何学会玩Atrai游戏机、国际象棋和围棋的讨论是清晰和有益的。她对这种成功所带来的轻率的热情表示怀疑: “这么说可能有点奇怪,但是... ... 学校象棋俱乐部里最低等的幼儿园小朋友都比 AlphaGo 聪明。”

在我看来,机器在翻译、阅读理解等方面达到人类水平的可能性微乎其微,仅仅依靠在线数据,基本上对它们处理的语言没有真正的理解。

《AI3.0》这本书的第四部分---- 人工智能遇到自然语言,第五部分---- 意义的障碍---- 之间的界限是任意和多余的,正如米切尔清楚地意识到的,没有意义,语言就不是自然的。但是她对这两个主题的讨论知识丰富,信息量大,而且很有说服力,特别是关于类比的主题,这也是她博士论文的主题(发表为《作为感知的类比: 计算机模型》)。

在这里,她也有充分的理由表示怀疑: “在我看来,机器在翻译、阅读理解和类似方面达到人类水平的可能性极小,完全来自网络数据,而且基本上对它们处理的语言没有真正的理解。语言依赖于常识性的知识和对世界的理解。缺乏人性化的理解... ... 难道不可避免地导致他们脆弱、不可靠、易受攻击吗?没有人知道答案,这个事实应该让我们所有人停下来。”

在倒数第二章中,米切尔用一张照片重申了她贯穿全书的观点,就像士兵回家一样,这是任何人工智能程序都无法理解的(奥巴马总统在体重秤上增加磅数的幽默) :

人类倾向于高估人工智能的进步,低估自身智能的复杂性  第5张

一张超出人工智能程序理解范围的照片: 奥巴马总统在同事称体重时偷偷地增加了几磅。

最后一章《问题、答案和推测》远没有米切尔所假装的那样具有推测性: “从这本书中得到的信息是,我们人类倾向于高估人工智能的进步,低估我们自身智能的复杂性。今天的人工智能远非一般智能,我不相信机器‘超级智能’会出现在任何地方。”

《AI 3.0》是对人工智能最近令人印象深刻的成功及其长期(或许是固有的)局限性、问题和失败的高度可读的解释。最引人注目的是,与像我这样持怀疑态度的局外人不同,这本书的作者在她的整个职业生涯中一直积极从事该领域的工作。

翻译自:https://www.skeptic.com/reading_room/review-artificial-intelligence-guide-for-thinking-humans-ten-years-away-always-will-be/