首页 资讯正文

姜奇平:什么是人工智能时代的安全职业

导读:作者 | 姜奇平 中国社科院数量经济与技术经济所信息化与网络经济室主任、苇草智酷创始合伙人 什么是人工智能时代的安全职业,可能疫情后变成人们紧迫思考的问题了。随着人工智能发展,一个又一个原来由人承担的工作,被机器替代。 阿尔法狗干了围棋冠军的活...

作者 | 姜奇平 中国社科院数量经济与技术经济所信息化与网络经济室主任、苇草智酷创始合伙人

什么是人工智能时代的安全职业,可能疫情后变成人们紧迫思考的问题了。随着人工智能发展,一个又一个原来由人承担的工作,被机器替代。

阿尔法狗干了围棋冠军的活儿,微软的小冰干了诗人的活儿,百度无人驾驶汽车干了司机的活儿,方太无人超市干了售货员的活儿……,传统职业变得不再安全。人们不禁要问,将来还有哪些职业,是机器难以替代,因而是相对安全的?

姜奇平:什么是人工智能时代的安全职业

判断这个问题,不能靠瞎猜,而需要一个思考框架。作为一个学术问题,这个问背后的问题是:人工智能擅长作什么,不擅长作什么。人擅长作什么,不擅长作什么。搞清楚人与机器各自所长、所短,这个问题自然就有答案了。

首先,涉及人工智能的本质,要参考人工智能权威的看法来判断。

这里推荐2011年图灵奖获得者朱迪亚珀尔与达纳麦肯齐合著的《为什么:关于因果关系的新科学》。其中提出了一个理解人工智能能力本质的简单框架,这就是因果推断框架。

2014年9月3日,珀尔教授在旧金山给笔者讲了一下午因果推断,笔者记下的一句话,可以概括这本书的主线:“从巴比伦思维到雅典思维的问题。”因果推断在讲相关关系与因果关系二者之间的关系。

通俗地讲,相关关系对应归纳(休谟经验论,所谓巴比伦思维),因果关系对应演绎(莱布尼茨理性论,所谓雅典思维)。珀尔反对现在一些人只讲相关关系,不讲因果关系。认为人工智能只有通过建模将相关上升到因果,才能通过推断解决问题。

对应到职业上,这意味着,找不到规律的事(只有相关没有因果的事)更适合由人来完成;而找得到规律的事(从相关可以推断出因果的事)可以由机器替代。更简化地说,凡是建不了模的工作,机器都代替不了人。举例来说,有些人购物没准儿,建模往往套不牢他们,所以为这些消费者服务的事就适合由人来干。

其次,涉及职业的本质,要参考职业问题权威的看法来判断。

这里推荐斯科特佩奇的《多样性红利》。其中也提出了一个超简的判断框架:“多样性优于能力”。全书的“多样性”,都可替换为臭皮匠(或人);“能力”,都可替代为诸葛亮(或人工智能)。

臭皮匠在什么条件下可以稳赢诸葛亮,或者说,人在什么条件下可以稳赢人工智能。其实条件很简单:凡是人算不如天算的,都不适合人工智能(诸葛亮)。相反,凡是人算算得清的,都不适合臭皮匠。

显然,人工智能这个“诸葛亮”之所以显得很能,全在于会算,如果他算不清楚,自然就得投降。什么是算不清楚的呢?按佩奇院士理论,就是复杂性程度超过算力的事务。举例来说,股市、生态多样性,还有,婚恋,等等。

第三,涉及人工智能与职业的关系,要参考这方面专家的看法。

这里推荐马华兴、王鹏著的《做出好选择》。其中提出了一个将人工智能与职业联系起来的判断框架。这个框架把工作分为程序型工作和探索型工作。程序型工作,对应珀尔院士说的可建模发现因果关系的事情,对应佩奇院士说的“能力”型工作;探索型工作,对应珀尔院士说的只有相关关系无法建模的事情,对应佩奇院士说的“多样性”型工作。

《做出好选择》认为,从事探索型工作是未来的方向。这是人工智能时代的安全职业。书中归纳了三种有前途的探索型工作:社交类工作、设计类工作、经验类工作。

不过,如果理解了人工智能的原理与职业的原理,安全职业可以不只这三类,而可无限增加。比如,网络文艺,全行业符合佩奇院士说的“多样性”标准,作品只要一重样,就会被判抄袭。

其中包括网络文学、网络音乐、网络视频、网络音频等十多个职业,进而由产品内容化、体验化,乘上365行进一步派生数千职业,如直播带货、孩子打针专用动画片等等;又比如,网络娱乐,细分为体育、游戏、博彩等具有人算不如天算特征的成百上千种的职业,……

无穷无尽,总之只要与人的情感(如对美好生活的向往)沾边,都适合人而不适合人工智能。真正的问题反倒可能是,安全职业多得数也数不过来,逼得人工智能还要再努力一些,才能把人手腾出来,有机会去尽情发挥。

苇草智酷简介

苇草智酷(全称:北京苇草智酷科技文化有限公司)是由长期从事互联网前沿思想、人文、科技和投资领域的专家所组成一个的思想者社群组织,其前身是已运营 5 年的互联网思想者社区网络智酷。

苇草智酷秉承“让天下思想者连接起来”、“让思想流动起来”、“让思想直立行走”的主旨和愿景,在泛互联网思想领域中,立足全球视野,感知时代脉搏,聚焦思想前沿。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/6008.html

发表评论

评论列表(0人评论 , 11783人围观)
☹还没有评论,来说两句吧...