当前位置:首页 > 资讯 > 正文

剑桥大学嘉治商学院:了解人工智能应用中的功能障碍

剑桥大学嘉治商学院:了解人工智能应用中的功能障碍  第1张

剑桥大学嘉治商学院的Stella Pachidi博士在其合著文章中称,人工智能有能够重塑工作场景的潜力,但管理者需避免包括算法偏见在内的四种主要“人工智能功能障碍”。

剑桥大学嘉治商学院的Stella Pachidi博士在《管理信息系统(Management Information System)》杂志的季度特刊中发表合著文章称,人工智能拥有能够重塑工作场景的巨大潜力,但随着这项仍处于起步阶段的技术不断发展,机构和企业需要采取相应措施来避免算法偏见等人工智能的“功能障碍”所带来的不利影响。

剑桥大学嘉治商学院信息系统讲师、特刊编辑Stella Pachidi博士在合著文章中表示,人工智能在大型公司中的应用仍处于相对早期的发展阶段,而在规模更小的非科技公司中则几乎没有应用。因此,管理者需要明确了解这些人工智能应用可能产生的功能障碍,以应对人工智能部署和培养相关人才的过程中的挑战。

目前机构与企业中所应用的许多人工智能系统都属试验性质,尚未被大规模推广。该文章表示,要想在更大范围推行人工智能,还需克服一些障碍,如人工智能与传统基础设施的整合、调整组织架构(包括划定首席信息官与首席数据官的管辖范围)、吸引人才以改善数据科学家和人工智能工程师缺失的现状等。

该文章名为《特刊社论:机构中的人工智能:现状与未来机遇》,文中列出了四种管理者需要了解的人工智能功能障碍:

1、算法偏见。机器学习算法的结果可能使部分群体处于不利地位,如算法中包含种族歧视倾向、根据过往判决结果向法官提出先入为主的建议等。

2、难以解释的决策结果。使用人工智能系统进行决策的过程中,可能涉及到多层级的数据过滤,最终可能会导致结果难以解释或服众。为提升这类结论的可信度,作者建议公开评估时所使用的数据,同时用简单的术语解释模型运作的逻辑。

3、模糊责任界限。发生于结论同时受人类和机器因素影响时,如无人驾驶汽车事故,或算法股票交易造成大额损失中的责任判定。文章建议预先同人工智能设计者、商业用户和机构明晰法律责任与义务。

4、侵犯个人隐私。鉴于人工智能需要处理的数据量日渐增长,除了遵守 ********* 关于个人信息的规定,如欧盟国家的《通用数据保护条例(GDPR)》,该文章还建议通过开发可审计的算法并执行此类审计来提高透明度,以确定决策过程中使用的数据和输入的变量。

该期《管理信息系统(Management Information System)》季度特刊由本篇文章的三位作者担任编辑。它们分别是澳大利亚迪肯大学的Hind Benbya、马萨诸塞州巴布森学院的Thomas H. Davenport和剑桥大学嘉治商学院的Stella Pachidi。他们从50篇投稿中选取了五篇收录进特刊,分别涉及的主题包括:为知识密集型工作开发人工智能系统的重大挑战、人工智能决策过程中的意外后果、人工智能的可解释性、克服用户对人工智能的抵触情绪、设计对话代理或 “聊天框”。

“由于人工智能技术还在不断发展,人们对人工智能带来的新管理挑战、以及其对工作场景和机构的影响的认识还在不断提升。其最广泛的影响很可能是对未来工作方式的改变。”文章总结道,“因此,从现在起,企业应着手开发能够创造经济价值,且有利于人类与机器协调合作的人工智能应用。”