当前位置:首页 > 资讯 > 正文

AI哲学②|人形机器人为何争议大?人工智能的突破难在哪?

AI哲学②|人形机器人为何争议大?人工智能的突破难在哪?  第1张

近年来,人工智能发展迅猛,强烈冲击并深刻变革人类既有的生活模式。从已经广泛应用的算法大数据、人脸识别,到仍在钻研发展的人形机器人、刷掌支付,人类对于攀登科技的新高峰乐此不疲,但同时也对深度卷入人工智能的未来感到担忧与怀疑。

机器深度学习后可能赶超人类智慧吗?大数据带我们走向的是“人工智能”,还是“人工智障”?本期澎湃问吧继续邀请复旦大学哲学学院教授、《人工智能哲学十五讲》作者徐英瑾,一起聊聊人工智能的现在与未来。

人工智能突破难点在哪

@柒星:量子计算机会成为人工智能的突破口吗?

徐英瑾:量子计算实际上有两种含义。一种含义,是在硬件层面上做出具有量子效应的计算机,由于硬件上不同于传统冯诺依曼机,因此机器的造价将极为惊人,很难大规模普及。第二种含义,是指在传统计算机上模拟量子效应,相对来说造价较低。

但量子效应是否能实现人工智能实际上是需要全面考量的问题。量子计算在执行某些任务时比传统计算机效率更高,但问题是怎样才能使其变成在通用机上也可普遍编程,这需要一般性的理论来证实。尽管量子效应弥漫在整个物理世界中,但人工智能机器的架桥理论目前非常难。即使是在人类智能的研究中,人类的物质构成基底是否有量子效应也仍待证实。此外怎样从低层次一层层达到高层功能也是难题。正因为架桥理论在人类领域尚未完成,因此在人工智能机器领域想要实现则更为遥远。

@披星戴月地吃哈密瓜:自动驾驶是不是人工智能一直在研究的领域?人工智能突破难点到底在哪?

徐英瑾:自动驾驶的民用领域比军用领域更为复杂,地面车辆的自动驾驶比航空器的自动驾驶更复杂。两架飞机即使差了一公里也能知道提前避开。但在地面行驶时,不可能看到一辆大卡车距离一公里时就开始避让,相反得在两者相差几米时做出迅速反应。正因为地面驾驶需要在短时空区间里做出迅速反应,因此对于技术细节的要求非常高。

更重要的是,自动驾驶技术所模拟的是人工智能本就不善模拟的一种能力,即人类驾驶员和汽车的操纵杆以及方向盘之间的身体感受。这就类似于模拟完全意义上的打乒乓球,甚至比模拟打乒乓球更难。因为乒乓球的游戏规则相对比较确定,因此机器人打乒乓球可以完成得不错。而自动驾驶的环境中面临非常复杂的驾驶环境,甚至会遭遇完全不遵循驾驶套路的情况,所以难度更高,需要很多基础学科的突破。

@CHRIS:

人工智能是否有可能进入政治领域?比如行政指引甚至社会决策?

徐英瑾:如果广义的政治包括法律问题的话,中国已经有人工智能部分介入法律领域的情况。比如人工智能会通过比对全国数据库来判断法律的处理是否正当,目的是衡量法律裁决的公正性。但这种运用完全是工具性质的。

由于政治活动是一种非常高超的活动,它的本质更偏向艺术,而不只是科学。对于政治活动中决策力度的把控,需要当事人根据当时环境中的诸多微妙因素进行感知,目前人工智能还做不到这一点。

人工智能会让人类失业吗

@一只饺子OAQ:机器一旦学会深度学习,其预判和学习结果往往比人类精准得多,这是否意味着人类可能大规模失业?

徐英瑾:深度学习依赖于大量数据。有人担心深度学习的推广会让人类失业,但实际上外部情况经常发生变化。即深度学习所依赖的数据总和往往是过时的数据。对于瞬息万变的崭新情况,人类能够基于自己的灵光乍现进行迅速反应,而机器则不具备这种能力。只要人类保持自己的创造性,就不用担心深度学习取代我们的工作。

@XYZ:人工智能会在脱离人类监管的前提下有任何行为吗?理论上有这种可能性吗?

徐英瑾:人工智能在脱离人类监管的情况下自主产生行为,这可能是真正意义上“智能”的标志之一。我认为这一点在原则上是可以实现的,只不过现在基于大数据和规则的人工智能暂时没办法实现。倘若要实现这一点,需要建立在一个重要的学术前提之上:即需要对人类的心智进行普遍化的建模,且这种建模必须能够兼顾机器执行特征。如果建模的成果无法存在,那么具有自主性的人工智能研制就会失去其应有的蓝图。

@神田川:以前也早已有各种机器人在投入使用,比如扫地机器人、商场引路机器人等,只不过不是人形。为什么马斯克发明的人形机器人引发激烈讨论?

徐英瑾:人形机器人之所以引发关注,是因为它的外观能够引发人类的心理投射,很易引起共情。人类对于任何人形物件产生共情,这是自然的心理倾向。但从纯粹的技术角度上来看,不能认为人型机器人就代表内部智慧更高级。类似于在电影《星球大战》中,不做成人形的机器人可能具有很高的智慧,相反人形机器人本身的智慧与内部配置反而有可能非常低。

@ 澎湃网友e2aqyi:如果说人类进化的底层逻辑是生存,未来人工智能技术迭代的底层逻辑会是什么?如果是获得资源不断学习和发展,有一天会和人类生存相冲突吗?

徐英瑾:我认为未来人工智能的真正底层逻辑仍然是生存,与人类的不同点在于它们有可能需要维持的是电量安全、记忆库安全等。虽然人工智能是在另一个硅基生命体意义上的生存,但其抽象逻辑和人类相同。

那么人工智能是否会和人类产生冲突呢?作为硅基存在体,它们没有对食物和水的需求,因此不会在这些方面和人类产生直接冲突。但或许会在能源问题上与人类相冲突,这种可能性无法被忽略。至于是否一定会产生冲突,又取决于人类技术能否为全球提供足够的能源、核聚变技术未来能否投入使用等。因此这是牵涉到众多参数的巨型方程,当下很难预估未来情况如何。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)