首页 资讯正文

半个世纪前的“人工智能会议”都讨论了哪些话题?

导读:1973年,有三份著名的关于算法伦理的研究发表,这代表了当时顶尖学者对人工智能的前沿思考。 反观他们当时提出的问题与建议,即便生活在今天的我们也能感到一丝似曾相识早在半个世纪前,许多重要的问题已经被提出和讨论。 而将这些文章与算法伦理的当代研究...

半个世纪前的“人工智能会议”都讨论了哪些话题?

1973年,有三份著名的关于算法伦理的研究发表,这代表了当时顶尖学者对人工智能的前沿思考。反观他们当时提出的问题与建议,即便生活在今天的我们也能感到一丝“似曾相识”早在半个世纪前,许多重要的问题已经被提出和讨论。

而将这些文章与算法伦理的当代研究进展相比较,在历史视角下,我们也或许更容易找寻到对人工智能治理、算法伦理研究的定位。

文 | 朱悦

圣路易斯华盛顿大学法律博士(J.D.)候选人

复奏与变调:1973年

IJCAI 国际人工智能联合会议

“计算机应用日益复杂、对人类事务影响愈深。”

1973年,至今仍有声名的IJCAI(国际人工智能联合会议)讨论了一组影响深远的主题:谁在资助人工智能?人工智能已有、将有什么应用?以及人工智能会造成什么社会影响?会上,Firschein等四位学者综合众多专家的意见,发表了一篇切题的综述。

这篇综述信息量很大,有趣内容也很多。例如,在人们最“喜闻乐见”的预测环节,超过60位专家中竟无人认可“人工智能将在5年内达到成人水平”,20人认为这需要50年,26人认为50年也不够。

同时,几乎所有专家均认可“人工智能将在10年内为各行业带来显著红利”。

半个世纪前的“人工智能会议”都讨论了哪些话题?

IJCAI成立时的历史文件截图

更有趣味的是,在对人工智能影响的“分类分级”评估,及其衍生的伦理问题的讨论。在论及前者时,关于自语音转写、自动驾驶、玩耍游戏、机器人医疗等话题应有尽有。

在伦理方面,这篇文章大体分为三小节:

第一节是“放眼星空”:预测人工智能技术发展的长期影响;第二节“俯视大地”:点出人工智能产品的三类具体问题;最后,文章还提出了极简洁的方案。

谈及人工智能的长期影响,文中列举了六类:

疏离人与人的交往;

令价值判断不可见(例如,面临不同目标时,自动驾驶内蕴的价值该如何取舍?);

人的独特性消弭;

人将离不开机器

机器取代单调繁琐的工作;

权力因人工智能扩散而集中。

现在来看,每一个题目都足以开出一份阅读清单。

但既视感更强的,还是文章第二节中对三类具体问题的讨论。

第一类问题:安全。此处,自动驾驶汽车与各类可以移动的机器人,再次成为安全问题的“标靶”;第二类问题:隐私。例如,对个人数据的采集与使用应当施加适当的安全要求;第三类问题:原文以“伦理”命名。细究后发现,实际是“对特定组别的偏见”。

文章的第三节提供了一份极简方案,初看之下显得平凡,但今天再回过头去看,大概比当下“为各行业带来显著红利”的说法还要超前。简而言之,四位学者提议,设立“人工智能伦理审核委员会”,由法律、政治与技术社区等各界人士组成,建言立法、起草标准、编撰指南、引领研究……

半个世纪前的“人工智能会议”都讨论了哪些话题?

斯坦利屋准则

如果认为这篇文章只是吉光片羽,那你就错了。同年,多名计算机科学家、律师、心理学家、历史学家、哲学家、官员和企业经理,在加拿大“斯坦利屋”举行会议,拟出“信息系统(时常与人工智能混用)”的五方面准则,共计二十五条。这五大类是:

用户交互、应对例外、信息自主、隐私和伦理指南。

此处依据Sterling在《科学》刊出的版本,细列部分最有意思的条文:

例如,第一类要求:系统“语言易懂”、有与人交互的界面、可以问责;第二类中,有设立推翻系统决定之程序的要求;第三类是保障信息主体访问、纠错系统中个人信息的权利;第四类要求是“在设计过程中评估(隐私)”;第五类强调,系统不应欺骗,不操纵人,开发者应自觉拒绝开发秘密的系统。

美国国家科学基金会

如果说,无论是IJCAI,还是“斯坦利屋准则”,仍有些许耽于学理的嫌疑。那么1973年来自美国国家科学基金会(常简称NSF)的、对“自动化决策”研究的倡议,“风向标”的意味无疑要再浓一些。不过,两相比较之下,来自NSF的声音,其学理味道愈发浓重。

这篇文章倡议的开篇是四大时势:生产力在发展;社会在加速;信息正在过载;以及,复杂系统研究的兴起。紧接着,是所“建议”的三大哲学之问:自动化环境“篦却人文”、危及人的自我图景;价值冲突,比如隐私与安全间的冲突日益尖锐化;以及自动化决策“中立”,可以向善、可以为恶,一旦为恶怎么办?

紧接着是对算法透明/算法解释较早的系统阐述。研究方向是研究“便利公众了解自动化决策系统之‘设计、控制与应用’的机制”。其间进一步指出:决策所用数据宜于透明,但也要考量经济因素。对“计算机交互界面”的需求多次出现。

当然,这里还要排除“以古度今”的嫌疑:在“人机交互”尚处草创的时代,“透明”有没有可能只是指的屏幕?以及“解释”是否可以通过鼠标实现?毕竟追溯今日的解释,特别是所谓“实用主义”的解释,从无鼠标到有鼠标,确实可以视为解释方面的一大突破。

原文的雄心远不止于此。不妨摘录几条:

“许多此类模型,包含对价值导向的假定。这些价值导向,要明白展现出来,展示为个体和代表公共利益者可以调校(的形式),这样可以在保持(算法)输出稳定(的前提下),去探索不同的价值。”

“对此类问题的研究,应大大有利于将自动化决策系统,转化为大众所用的工具。”

让算法为人所用,成为大众的工具至今我们仍然在努力寻觅这一目标的路上。复奏与变调:现在相比1973年,伦理的音量嘈闹了不少,而“拘于原则”仍然是不变的观感。

作比较研究,首先要阐明相似之处。

如果让当年文章字体稍微娟秀,再换掉部分不够“新潮”的用词,再涂黑发表时间,我们会发现,半个世纪的岁月,丝毫没有在这些原则和建议上留下痕迹。这或许是对相似最好的阐释。

从Jobin等三位学者颇有影响的、对今日近百算法伦理纲领的总结出发,同样可证其相似。透明与解释、公平与公正,再加上隐私,这依然是今日伦理前沿热门榜前三位。自治、尊严、可持续、可信赖等领域内的新生概念,正在崛起,但也很难称之为主流。

当然,理论相似不意味着实践停滞。

近百纲领的发表即属于进展之一。以牛津大学算法伦理研究者Mittelstadt等对解释的研究为代表,又体现在(最近有些议论的)Gepu等在实用数据集上的工作,伦理的学理,日渐有工程的实现。这是与半个世纪前最显著的差别。

尽管如此,另外两方面进展同样不能忽视:

其一,实践层面,伦理研究者为何长期未能落实原则;

其二,伦理研究者对原则的实践是否存在理论的极限。

作为实践伦理的先行者之一,Mittelstadt对“为何伦理原则长期未能落实”的总结,同样广受援引。大部分原因在1970年代即为研究者熟知;此外,“缺乏将原则转化为实践的办法”是新意最浓的一处。

再具体一点。抽象的原则,需要逐级“转录”为可供开发者实用的指南;否则伦理研究者,将瞬时化身乱提云山雾罩般需求的产品经理。现阶段的转录更多是两头不靠:指南,既失却了原则的学理,又没能挠到实践的神经,遑论痛点。或者无妨照引Mittelstadt的以下慨叹:

“不能去假定,以效率、速度和利润为先的商业过程,会以有意义的方式,落实注重价值的设计框架。”

相比实践层面的“未能为也”,理论层面的“实不能也”更令人悲欣交集。

仍然是20世纪中叶起,因公共选择理论的兴起,终于可以严格地处理“公平”这样的概念。近两年来,对隐私的严格分析逐日增加;将价值纳入运筹层面的努力正在勃兴。

正是在这里,伦理研究者“收获”、面对着许多不可能性结果。比如各类伦理价值,在根子上与准确或效率矛盾;又之,价值之间,如“公平”与“解释”可能无法兼顾;以及,与“公平”的复杂相呼应,“公平”的不同定义,彼此存在无法调和的冲突。

一幅山水,留白是最悠长的意涵;一则伦理,留白是最纠结的枝蔓。

伦理与伦理之外的权衡、伦理间的取舍、对伦理定义的裁断,终究要做。留白多少、如何留白,不影响裁断的有无,只影响裁断所处的位置。如此说来,我们所知道的仍然不多。

综上而言,相比1973年,伦理的音量嘈闹了不少;伦理与工程之间的桥接,隐约看到远处的合龙景色。同样的,相比1973年,“拘泥于原则”是比较之下不变的观感。

半个世纪前的“人工智能会议”都讨论了哪些话题?

穿越波峰与波谷我们会发现什么?

在变与不变之间,持不同先验主义者最容易得出截然相反的结论。

隐私、公平、解释等问题的久久存在,意味着这些问题有跨越时间的重要性,应当用算法治理实现;而隐私、公平、解释的迟迟未能实现,意味着这些问题有本质上的困难,不能贸然治理。这两方面的论题都很常见。

而在历史的视角下,启示大概可以再丰富一些。站在波峰、前眺波谷,倘若期待实质改变,可能还需要一些历经风波,需要不改颜色的观点。原则很重要,但算法伦理还可以有(也需要有)其它许多实用的维度。

从19世纪六、七十年代开始,即使那时候还谈不上真正的人工智能,但算法确实已经在部分领域得到实用。原则所涉及到的难题也确实会在这些算法里显现,而这些难题的解决,却未必直接与这些原则挂钩。

我曾分析过1970年代美国司法系统引入的随机抽选算法:当时,法院将用于抽签的大木筒换成“神秘”的电脑随机抽选,人们难以理解,且频繁发生公平性问题。一个匪夷所思的错误就足以让一个县(郡)的人口,被完全排除在抽签以外。然而,定位这些错误可能需要四、五年的时间。

面对各式错误,当时适用于随机抽选的法律应对在今天看来可能更像是“缝缝补补”,并不存在简洁的体系也许压根就谈不上“解决”,而更像是“将就”。各地星罗棋布的规则、技术的演进、渐进的标准化......层层累积下来,最终摞成了对抽选问题的“补丁”。

虽然结果未必完美,但在原则以外,如何为伦理的疏漏打补丁,是值得考虑的前行方向之一。

可行方向之二,是做一个提出需求更加切实的“产品经理”,或者像另一个流行的概念所说,做“法律的工程师”。伦理学人和产品开发者之间,应当“相向而行”。

这一趋势,已见端倪。算法伦理前沿在迈向更加精深、更为严格的理论分析的同时,同样呈现出一定的“在地化”。伦理研究者开始参与开发者晨会,查看具体产品的日志,让自己与开发者在一定程度上“难以区分”。近期,类似工作将越来越多。

最后,也是最值得期许的方向,是在了解原则与原则之外的基础上有所超越。时至今日,无论是原则具体种类,还是编织原则的经纬,理论层面的路径依赖依旧相当明显。在前两方向上前行,达到足够幽胜的境地、实践对现实的反哺,尤其可期。

将镜头再拉远:浩瀚汪洋,比一角峰谷更加广阔。在2020年的时势下,算法以迅捷狂骤姿态闯入每个人的生活。让算法可以调校、成为大众工具更加紧迫。

在这个意义上,聚焦极目处,中国风格的算法伦理正在升起。

半个世纪前的“人工智能会议”都讨论了哪些话题?

结语

以上,选取1973年为切片与今日比较,再探讨算法伦理的三种前行方向,每一步都相当简略、且相当初步。比如哪怕在1973年前后,也有比此处所示还要丰富得多的资料。又比如,对变化如此频繁的领域,断言失之过急或过缓,都属常见的情况。

诚如此,对伦理研究而言,复奏既闻,已晓新声;风起水涌,山鸣谷应。

平凡的工程缀补,冉冉的东升霞日,都是正在努力、并所期甚远的方向。隐私、公平、解释、问责、“人”……假如站在2073年回望,我们应当会感慨:治理的特色、风格、气魄,都已大有不同。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/5706.html

评论