当前位置:首页 > 资讯 > 正文

可解释性、学习、常识——人工智能过不去的三道坎

可解释性、学习、常识——人工智能过不去的三道坎  第1张

导读:随着人工智能的快速发展,许多学科正在慢慢交叉融合起来。经历了三次起伏的人工智能,它的缺陷和局限性正在显露出来。

如今,人工智能的可解释性正在成为一道过不去的坎,2019 年,欧盟出台《人工智能道德准则》,明确提出人工智能的发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等方面。

人工智能应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。人工智能模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向决策方解释模型的内部机制,对模型结果进行解释。例如决策推荐模型,需要解释:为何为这个用户推荐某个方案。

目前,各领域对人工智能的理解与界定因领域分属而有不同,但在共性技术和基础研究方面存在共识。第一阶段人工智能旨在实现问题求解,通过机器定理证明、专家系统等开展逻辑推理;第二阶段实现环境交互,从运行的环境中获取信息并对环境施加影响;第三阶段迈向认知和思维能力,通过数据挖掘系统和各类算法发现新的知识。

严格意义上说,美国的人工智能技术总体上世界领先,但是一旦涉及人机融合智能,往往就体现不出那么大的优势了,甚至不见得有领先的态势(也许中国和美国在人机融合智能方面根本不存在代差)。究其原因,人的问题。例如这次疫情,按医疗软件、硬件、医疗人员水平条件来看,美国应要好得多,可惜应了《三体》里的一句话:弱小和无知不是生存的障碍,傲慢才是。领导人的失误和错误已让许多的先进性大打折扣,甚至荡然无存。这不禁使人联想到前几日美国《军备控制杂志》的报道可能也类似。美国国防部2021 财年申请289 亿美元用于美国核武器设施的现代化建设,体现了特朗普 ********* 战略发展重点:提升核指挥、控制和通信(NC3)基础设施的高度自动化,提高其速度和准确性,但同时也引发一个令人不安的问题,即在未来的核战争中,人工智能自主系统在决定人类命运方面将扮演哪种角色?当前计算机辅助决策仍处于起步阶段,容易出现难以预料的故障。机器学习算法虽擅长面部识别等特

定任务,但也会出现通过训练数据传达的内在“偏见”。因此,在将人工智能应用于核武器指控方面需采取谨慎负责的态度,只要核武器存在,人类(而不是机器)就必须对核武器的使用行使最终控制权,此时,人机融合智能的真实能力将会如疫情管控一样显得异常重要。

人机融合智能,根本上就是科学技术与人文艺术、数学符号事实语言与自然经验价值语言结合的代表。时空不但在物理领域可以发生弯曲,而且还可以在智能中发生了扭曲。如果说哲学逻辑经历了世界的本源问题、研究方法问题的转向,那么20 世纪分析哲学——对人类语言工具的剖析成了人类思想上的一次“革命”,这一场以维特根斯坦为象征的哲学革命,直接诱发了以图灵机、图灵测试为代表的人工智能科技之快速发展。但金观涛老师的“真实性哲学”认为,在21 世纪中分析哲学最终反倒将哲学束缚在了牢笼中,实际上也造成了思想的禁锢:符号不指涉经验对象时亦可以有其自身的真实性,而且这一结论对数学语言和自然语言皆可成立。与此同时,纯符号的真实性是可以嵌入到经验真实性中的;科学研究与人文研究可以成为有所统一但互不重叠且有各自真实性标准的两个领域。人类的巨大进步是让真实性本能(常识的客观性)处于终极关怀和相应价值的系统的支配之下。但是今天真实性的两大柱石正在被科学进步颠覆,真正令人感到恐怖的事情发生了:人正在无法抗拒地沦为聪明的“动物”——在一个真假不分的世界里,不会有是非,也不会有真正的道德感和生命的尊严。

人不仅是用符号的等同或包含逻辑关系来表达世界的,人的教育不等于学习与知识,而是把欲望诱导到好的方向。计算机本身是不可能跨越“理解”这个鸿沟的,只有人才可以跨越符号指向的困窘。对主体而言,符号与经验是混杂的,逻辑与非逻辑是混杂的,公理与非公理混杂在一起,数据、信息、知识混杂在一起,这也是为什么可解释性之所以困难的主要原因。人机融合就是符号(数学)如何不同程度地嵌入主体经验(受控实验)之中,正如老子在《道德经》中说的:“道生一,一生二,二生三,三生万物。”

所谓的人工智能,很大程度上不过是运用了计算机不断增强的计算能力,而采用这条路径注定是错误的,人是活学活用,机是死学僵用。人类智能就是对小样本态势感知的能力大小。态势感知的一个著名例子就是中医中的望、闻、问、切,通过自然语言和数学语言之间的差别来打破心智与物理之间的分歧,进而把事实与价值统一起来。

态势感知最早应源于《难经》第六十一难,曰:经言,望而知之谓之神,闻而知之谓之圣,问而知之谓之工,切脉而知之谓之巧。何谓也?最早使用四字联称,则应处于《古今医统》:“望闻问切四字,诚为医之纲领。”望是观察病人的发育情况、面色、舌苔、表情等;闻是听病人的说话声音、咳嗽、喘息,并且嗅出病人的口臭、体臭等气味;问是询问病人自己所感到的症状,以前所患过的病等;切是用手诊脉或按腹部有没有痞块(叫作四诊)。

人工智能可解释性之所以困难,其根本原因在于其包含的不仅仅是数学语言,还有自然语言,甚至是思维语言(所以根本不可能迈过这道坎)。人机融合智能不但可以进行主体的悬置,还可以游刃有余地进行主体变换,在人、机、环境系统交互中真正实时、适时地实现深度态势感知,有机地完成数学语言、自然语言、思维语言之间的能指、所指、意指切换,可以轻松地直奔目的和意图实现。

人的学习学的不是知识,而是获取数据、信息、知识经验的方法;机器的学习学的是数据、信息和知识。

不同的物质系统之间存在着相似性;同一物质系统的每个子系统与其整体系统之间也有相似性;具有不同运动形式和不同性质的物质系统,却遵守着相似的物理规律,这些事实都说明:相似性是自然界的一个基本特性。例如质量—弹簧—阻尼构成的机械系统与电阻—电感—电容构成的电路系统是相似系统,反映了物理现象之间的相似关系(一般而言,相似关系可以用来化简复杂系统进行研究)。机器比较容易学习、迁移这种同质性、线性的相似系统,却很难实现异质性、非线性相似系统的类比、转换。但是人的学习却可以在对称与非对称、同质与非同质、线性与非线性、同源与非同源、同构与非同构、同理与非同理、同情与非同情、周期与非周期、拓扑与非拓扑、家族与非家族之间任意自由驰骋、漫步。

机器的学习离不开时间、空间和符号,而人的学习则是随着价值、事实、情感变化而变化的系统;机器的学习遵循、按照、依赖已有的规则,而人的学习则是如何修改旧规则、打破常规则、建立新规则。例如,真正优秀的领导人和指挥员在于如何打破规则——改革,而不是按部就班地迈着四方步稳稳当当地走向没落和腐朽,更不是眼睁睁看着疫情泛滥,双眼却盯着竞选和乌纱帽。

2017 年3 月16 日,美国国防高级研究计划局(DARPA )计划启动“终身学习机器”(Lifelong Learning Machines,L2M )项目,旨在发展下一代机器学习技术,并以其为基础推动第三次AI 技术浪潮。DARPA 认为AI 技术的发展已历经第一次和第二次浪潮,即将迎来第三次浪潮。第一次AI 技术浪潮以“规则知识”为特征,典型范例如Windows 操作系统、智能手机应用程序、交通信号灯使用的程序等。第二次AI 技术浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然上述AI 技术对明确的问题有较强的推理和判断能力,但不具备学习能力,处理不确定问题的能力也较弱。第三次AI 技术浪潮将以“适应环境”为特征,AI 能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。由此可知,AI 的持续自主学习能力将是第三次AI 技术浪潮的核心动力,L2M 项目的目标恰与第三次AI 浪潮“适应环境”的特征相契合。通过研发新一代机器学习技术,使其具备能够从环境中不断学习并总结出一般性知识的能力,L2M 项目将为第三次AI 技术浪潮打下坚实的技术基础。目前,L2M 包含30 个性能团体的庞大基础,通过不同期限和规模的拨款、合同开展工作。

2019 年3 月,DARPA 合作伙伴南加州大学(USC)的研究人员发表了有关探索仿生人工智能算法的成果:L2M 研究员兼USC 维特比工程学院的生物医学工程和生物运动学教授Francisco J. Valero-Cuevas 与该学院博士生AliMarjaninejad 、Dario Urbina-Melendez 和Brian Cohn 一起,在《自然-机器智能》(Nature Machine Intelligence)杂志上发表了一篇文章,文中详细介绍了人工智能控制的机器人肢体的成功研发。该肢体由类似动物的肌腱驱动,能够自学行走任务,甚至能自动从平衡失调中恢复。

推动USC 研究人员开发这一机器人肢体的是一种仿生算法,只需五分钟的“非结构化游戏”(Unstructured Play) ,就能自主学习行走任务;也就是说,进行随机运动,使机器人能够学习自己的结构和周围的环境。

当前的机器学习方法依赖于对系统进行预编程来处理所有可能的场景,复杂、工作量大且低效。相比之下,USC 研究人员揭示,人工智能系统有可能从相关的经验中学习,因为随着时间的推移,它们致力于寻找和适应解决方案,以应对挑战。

实际上,对于众多无限的学习而言,人是很难实现终身的,总有一些能学习到,还有许多另一些也一知半解,甚至一无所知的更多,对于没有“常识”和“类比”机理的机器而言,终身学习也许就是一个口号。首先需要理清楚的应该是:哪些能学?哪些不能学?

人类的学习是全方位的学习,不同角度的学习,一个事物可以变成多个事物,一个关系可以变成多个关系,一个事实不但可以变成多个事实,甚至还可以变成多个价值,更有趣的是,有时,人的学习还可以把多个不同的事物变成一类事物,多个不同的关系可以变成一个关系,多个事实可以变成一个事实,甚至还可以变成一个价值。而机器学习本质上是人(一个或某些人)的认知显性化,严格意义上,是一种“自以为是”,即人们常常只能认出自己习惯或熟悉的事物,所以,这个或这群人的局限和狭隘也就在不自觉中融进了模型和程序中,因而,这种一多变换机制往往一开始就是先天不足。当然,机器学习也并不是一无是处,虽然做智能不行,但用来做计算机或自动化方向的应用应该还是不错的。

如果说,学习的实质就是分类,那么人的学习就是获得并创造分类的方法,而机器学习只是简单地被使用了一些分类的方法而已。DARPA的“终身学习机器”项目本质上也许就是一个美丽的泡泡,吹一下就会忽高忽低地漂浮在空中,尽管阳光照耀之下也会五彩斑斓,但终究会破灭的。

正如所有的药一样,所有的知识都是有范围和前提的,失去了这些,知识的副作用就会涌现出来。知识只是常识的素材和原材料,机器只有“知”而没有“识”,不能知行合一。知识不应依附于思想,而应同它合二为一;知识如果不能改变思想,使之变得完善,那就最好把它抛弃。拥有知识,却毫无本事,不知如何使用还不如什么都没有学——那样的知识是一把危险的剑,会给它的主人带来麻烦和伤害。其中,限制知识这些副作用发作的最有效途径之一便是常识的形成,一般而言,常识往往是碎片化的,而态势感知就是通过对这些零零碎碎常识状态、趋势的感觉、知觉形成某种非常识的认识和洞察。另外,常识是人类感知和理解世界的一种基本能力。典型的AI 系统缺乏对物理世界运行的一般理解(如直观物理学)、对人类动机和行为的基本理解(如直觉心理学)、像成年人一样对普遍事物的认知。

DARPA 正在继续开发第二代人工智能技术及其军事应用的同时,积极布局第三代人工智能发展,2018—2020 财年,通过新设项目和延续项目,致力于第三代人工智能基础研究,旨在通过机器学习和推理、自然语言理解、建模仿真、人机融合等方面的研究,突破人工智能基础理论及核心技术。相关项目包括“机器常识”“终身学习机”“可解释的人工智能”“可靠自主性”“不同来源主动诠释”“自动知识提取”“确保AI 抗欺骗可靠性”“加速人工智能”“基础人工智能科学”“机器通用感知”“利用更少数据学习”“以知识为导向的人工智能推理模式”“高级建模仿真工具”“复杂混合系统”“人机交流”“人机共生”等。除此之外,DARPA 近期发布的人工智能基础研究项目广泛机构公告还包括“开放世界奇异性的人工智能与学习科学”“人机协作社会智能团队”“实时机器学习”等。

如果学问不能教会我们如何思想和行动,那真是莫大的遗憾。因为学问不是用来使没有思想的人有思想,使看不见的人看得见。学问的职责不是为瞎子提供视力,而是训练和矫正视力,但视力本身必须是健康的,可以被训练的。学问是良药,但任何良药都可能变质,保持时间的长短也要看药瓶的质量。

Vladimir Voevodsky 的主要成就是:发展了新的代数簇上同调理论,从而为深刻理论数论与代数几何提供了新的观点。他的工作的特点是:能简易灵活地处理高度抽象的概念,并将这些要领用于解决相当具体的数学问题。上同调概念最初来源于拓扑学,而拓扑学可以粗略地说成是“形状的科学”,其中研究沃沃形状的例子如球面、环面以及它们的高维类似物。拓扑学研究这些对象在连续变形(不允许撕裂)下保持不变的基本性质。通俗地说,上同调论提供了一种方法将拓扑对象分割成一些比较容易研究的片,上同调群则包含了如何将这些基本片装配成原来对象的信息。代数几何中研究的主要对象是代数簇,它们是多项式方程的公共解集。代数簇可以用诸如曲线或曲面之类的几何对象来表示,但它们比那些可变形的拓扑对象更具“刚性”。

DARPA 战略技术办公室(STO)2017 年提出的“马赛克战”概念认为未来战场是一个由低成本、低复杂系统组成的拼接图,这些系统以多种方式连接在一起,可创建适合任何场景的理想交织效果。这个概念的一部分是“以新的令人惊讶的方式组合当前已有的武器”,重点是有人/ 无人编组、分解的能力,以及允许指挥官根据战场情形无缝召唤海陆空能力,而不管是哪支部队在提供作战能力。

简单地说,上面介绍的“马赛克战”和“机器常识”,都是对抗博弈人机环境系统的新型拓扑系统,如同沃沃斯基创立的“主上同调”(Motivic Cohomology )理论。其中,真正厉害的不是那些基本的知识、条例和规则,而是应用这些基本的知识、条例和规则的在实践中获得普遍成功能力的人。