首页 资讯正文

2020未来科学大奖周|未来10年人工智能应用进入深水区

导读:读创/深圳商报记者 袁静娴 AI能做什么?AI有什么风险?大数据杀熟如何避免?12月29日,2020未来科学大奖周AI科技的社会责任对话在线上举行,专家们就上述问题进行了探讨。 AI最大问题是无法解决边界性 未来论坛青创联盟成员、清华大学计算机系长聘副教授崔鹏...

读创/深圳商报记者 袁静娴

AI能做什么?AI有什么风险?大数据“杀熟”如何避免?12月29日,“2020未来科学大奖周”AI科技的社会责任对话在线上举行,专家们就上述问题进行了探讨。

2020未来科学大奖周|未来10年人工智能应用进入深水区

AI最大问题是无法解决边界性

未来论坛青创联盟成员、清华大学计算机系长聘副教授崔鹏表示,未来10-20年人工智能应用将进入深水区,AI将向和人密切相关的风险敏感型领域渗透,如医疗、司法、金融科技等,但目前人工智能模型还存在着不可解释、不稳定、不公平、不可回溯的风险,这种风险可能会导致人工智能出现各种错误,并关乎到人的生命和财产安全,让人们对人工智能失去信任。

崔鹏进一步补充道,出错不是人工智能特有的风险,人类也会出错,关键是目前人工智能解决不了边界性问题,即AI不知道自己会什么,不会什么,这导致AI常常会犯一些很低级,或者人类意料不到的错误,而且人类无法理解为什么会出现这个错。此外,我们并不能简单地把性能作为一个人工智能模型是否可以被应用的标准,还需要从法律、社会伦理等角度进行综合判断。

在崔鹏看来,人工智能产业的发展,要想找到最后的“守门人”,来批准一个智能模型“上线”,是个很复杂的问题。从人工智能的底层理论框架来看,人工智能技术建立在关联统计上,但今天关联统计的优点已经被发挥到极致,并暴露了一系列的风险。“人工智能的研究还不够多元化,但风险却来源于多角度,我们是否该重新思考,让人工智能使用更严格的统计方式?”崔鹏说。

对于人工智能风险问题,腾讯公司发展合作中心总监、腾讯科学技术协会秘书长张谦表示,从企业发展和实践来看,技术并不可怕,人工智能技术来源于深度学习,深度学习也正在约束它。她认为,一方面企业要和相关的法律、政策专家共同努力,从产品上守住底线,另一方面还是要用技术发展来解决技术问题。

美团首席科学家、美团AI平台总经理夏华夏则认为,有些风险可以用技术解决或部分解决,比如上述所提到的不可解释性、不可靠性、数据隐私安全等,但有些问题必须要靠社会伦理、政策、法律法规等多方面综合作用。

“AI科技本身没什么社会责任,真正应该承担社会责任的是用AI科技的人和企业。”夏华夏表示,AI是个新生事物,在社会发展中它也在跟着变化,需要产业界和政府共同努力,帮助用户快速适应与挖掘到其魅力。

大数据“杀熟”?需要大企业彰显责任担当

大数据“杀熟”是人工智能和数据常被人们讨论到的问题。对此,未来论坛青年理事,星界资本管理合伙人方远表示,“算法越来越懂你”这个想法并不一定对,算法背后是平台,在人工智能时代,并非所有企业的责任担当都一样,对具有收集数据能力的企业,如何使用这些数据,如何配合监管机构和产业界从社会伦理和法律层面保护这些数据,大企业的责任担当明显更重。

夏华夏对此表示赞同。夏华夏介绍,今年美团成立了人工智能治理委员会,正在探索数据使用的边界,企业需要数据为用户提供更好的使用体验,但如何避免数据的安全,需要在内部设立规范,让相关团队都能遵守。另一方面,企业正在进行市场教育,让用户知道企业是如何使用数据的,以消除大家对人工智能的恐惧感。

针对多位专家共同提到的社会伦理和法律法规约束,未来论坛青年理事、中国人民大学法学院副教授郭锐引用了残障法提到的一个“融合性、包容性的社会”理念进行回答。郭锐表示,残障法对AI治理有很大的启发,残障法的作用是关注弱势群体,让每个人独特的需求都能得到平等的发展机会,人工智能技术也应当如此。他表示,人工智能技术是没有终极准则标准的,因此不能认为一个人工智能模型适合部分群体,就适合所有群体,有些决策还是要人来做。

审读:喻方华

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/5494.html

评论