首页 资讯正文

AI哲学①|人工智能是否被滥用,距离人类智慧还有多远?

AI哲学①|人工智能是否被滥用,距离人类智慧还有多远?

在不久前热映电影《失控玩家》中,影片主角是电子游戏的人工智能NPC(非玩家角色,Non-Player Character),随着自我意识觉醒,他爱上了来自现实世界的人类玩家。这一剧情设定也再次将“人工智能是否会产生感情”的疑问抛置于大众面前。

人工智能离人类智慧还差多远?机器人的感情与人类有何不同?人工智能会学习人性中的恶吗?本期澎湃问吧邀请复旦大学哲学学院教授徐英瑾,曾出版《人工智能哲学十五讲》,一起聊聊人工智能的本质。

人工智能的本质是什么

@Sonichocken:人工智能目前有定义了吗?如果没有广泛认同的定义,哪来有意义的问题?

徐英瑾:人工智能之所以没有定义,是因为“智能”没有定义,这根本上是一个哲学问题。现在所讨论的智能不是人类/动物/外星人的智能,而是某种能够横跨人类和机器的普遍标准,而找到标准的难点就在于工业界本身无法提供如此大跨度的学术思考。对于此类问题的讨论在哲学界内部又恰好陷入巨大的纷争。在近代的西方哲学领域,对于人类智能本质的讨论就有经验派和唯理派两种意见:一种认为智能的本质在于经验归纳,另一种认为是先天原理对于经验的铺展。

这就导致当工程界人士需要哲学家提供高层次理论来告诉他们“什么是智能”时,却发现哲学史上也是一片争论。于是编程工作者就可能从哲学家的既有理论中寻找一种他们喜欢的理论去实践,由此再次深化了哲学界对于“智能”之本质的分歧。

@尤卡坦:人类智慧的构成要素是什么,可以说它的核心是语言和逻辑吗?人工智能目前离人类智慧水平还差什么?

徐英瑾:智慧的本质是对于外界的反应能力。随着反应的复杂方式提高,则智慧的水平不断提高,甚至机器或者外星人的智能也可以按照这个标准去衡量。具体而言,动物对外界反应的能力都是本能性的,而人类和外界打交道的能力有更多样的组合方式。比如人类可以用复杂的马基雅维利式的欺骗套路来欺骗可能的敌人。即使高级的动物比如猴子已经具备一些欺骗能力,但和人类相比还是小巫见大巫。智慧的本质既然遵照如上定义,那么为了让应对外界的反应方式变得相对复杂,就需要逻辑工具来使既有的知识模块丰富化,同时又需要通过语言来勾连人际之间的协作。所以逻辑和语言就成为了智慧的衍生品。

有一种错误思路认为,作为既存状态的逻辑和语言是人工智能要模仿的目标。但人工智能如果仅仅抓住逻辑和语言,而没有抓住“逻辑和语言得以产生是为了应付生存压力的需要”这一根本性问题,那么人工智能的研究就会走上歧路。早期符号AI之所以走上歧路,就是因为只追求末不追求本,只追求流不追求源。

@晚风:程序员编代码写出来的游戏NPC,可以算是人工智能吗?达到什么样的标准才能叫人工智能?目前“人工智能”这个词是否过于被滥用?

徐英瑾:游戏编程员用代码写出来的程序属于广义的人工智能。广义人工智能是指用计算机程序能够模拟出人类智能的一部分特征。电脑游戏里的程序能够模拟一部分人类的智能特征,比如在战争类的即时战略性游戏中,模拟人类玩家的一些特点,这当然是智能的体现。但它并不是所谓的通用人工智能,即不能模拟人类的完整智慧。通用人工智能目前尚未实现,目前市场上能够看到的都是专用人工智能。

@Frajka: 机器的深度学习和人类智慧有什么差别呢?

徐英瑾:机器深度学习并非指像人类一样深度地学习,它的英文是deep learning,在日本语境中被译作“深层学习”。“深层学习”也许更符合其技术实质,即人工神经元网络的复杂化版本。

人工神经网络技术在80年代就已经比较成熟,但深度学习或者说深层学习在什么意义上对它进行复杂化?答案在于传统上人工神经元网络的中间信息处理层只有二至三层,而深度学习把它扩展到了四层以上甚至几十层,由此提高了性能。但究其根本,这一技术只是对于传统的人工神经元网络技术的拓展。具体情况请参考我所撰写的《人工智能哲学十五讲》。

《人工智能哲学十五讲》,徐英瑾 著,北京大学出版社2021年07月。

人工智能会有情感吗

@澎湃网友niIrqe:机器人会有感情吗?如果长期和人相处,又有很强的学习能力,是否也可能变成有感情的机器?

徐英瑾:人工智能如果获得感情,它和人类所具有的感情既有相似点,又有不同点。相似之处是指人工智能和人类一样都会对外界的挑战做出回应。情绪本身就是认知主体在遭遇外界挑战时,为了更有效地应对这种挑战而做出的认知资源重新部署和调整。就这点而言,人工智能和人类的情绪有相似之处。

但当我们讨论情绪时,也需要考证其物理实现方式。从物理实现角度来看,人类之所以感到开心是因为多巴胺的分泌,感到不开心是因为其他化学物质的分泌。人类的生理机制无法被人工智能模拟。人工智能尽管有可能通过完全不同的物理机制实现认知资源的重新部署,但人类无法了解他们的具体感受是什么,甚至是否有感受。但人类也不能因为无法得知AI情绪的主观感受,就否认他们情绪的存在。

@澎湃网友ZbM36r:请问人工智能是否会产生反抗意识,以及正确理解人类的语句“有本事你杀了我”这种开玩笑的话?

徐英瑾:这个问题挺好。我认为如果是基于经验和数据处理的人工智能,将有能力辨别玩笑。因为它会通过话语和后续性事件之间的相互联系来判断。如果人工智能经过大量的数据训练,发现很多人说这句话但没有任何谋杀发生,则基本上就会判断这句话为反话。这其中也涉及日常语言处理中的难题,即如何让机器读出何为反讽、何为反话。

此外,基于经验运作的人工智能,会在不同的文化体中得到不同的数据。例如在一种文化体中,如果很多人所言与所行符合,那么人工智能很可能判定不是反话;但如果在另外一种文化体内,发现威胁性话语之后并没有出现与语言效果相匹配的威胁性行动,则会判断是反话。所以未来人工智能将很可能基于不同文化样态做出差异化的判断。

《失控玩家》剧照:人工智能爱上现实人类

@小兔兔:

人工智能会学习人性中的恶吗?

徐英瑾:如果把“恶”广义地定义为某种不好的现象,我个人认为现在的人工智能已经在部分学习“恶”。举一个简单的例子:当前由于网络用语中出现很多错别字,而语言处理往往基于大数据,因此机器也会在学习之后导致跟着写错。尽管写错别字的性质并不严重,但也已经是某种意义上对于规范的扭曲,足以让人窥见端倪——即现有的人工智能是对于人类行为的某种平均化处理,基于数据来进行归纳、系统地模拟学习,甚至放大人类既有行为中的失范之处。因此可以说基于大数据的人工智能必然会出现学习恶的现象。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/14682.html

发表评论

评论列表(0人评论 , 4341人围观)
☹还没有评论,来说两句吧...