首页 资讯正文

2020年中国人工智能产业发展形势展望

woniu 资讯 2020-01-26 16:52:06 31688 0 未来发展影响

2019年,人工智能数据、算法、算力生态条件日益成熟,我国人工智能产业发展迎来一轮战略机遇,智能芯片、智能无人机、智能网联汽车、智能机器人等细分产业,以及医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域发展势头良好。展望2020年,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区,国内人工智能产业投融资将更关注易落地的底层技术公司。

本文来源:雷克世界

2020年形势判断

从产业链建设看,人工智能数据、算法、算力生态条件日益成熟。算法、数据和计算力是推动人工智能技术进步和产业发展的“三驾马车”。一是在算法方面,2019年,基于视觉、触觉传感的迁移学习、变分自动编码器(VAE)和生成对抗网络(GAN)是无监督学习中新涌现的算法类型。

预计2020年,上述新兴学习算法将在主流机器学习算法模型库中得到更高效的实现,Caffe框架、CNTK框架等分别针对不同新兴人工智能算法模型进行收集整合,可以大幅度提高算法开发的场景适用性。二是在数据方面,2019年,我国5G、物联网、汽车电子等多种新兴技术产业的快速发展,数据总量呈现海量聚集爆发式增长。预计2020年,我国5G通信网络部署加速,接入物联网的设备将增加至500亿台,数据的增长速度越来越快,世界领先的互联网公司大数据量将达到上千PB,传统行业龙头型企业数据量将达到PB级,个人产生数据达到TB级。三是在算力方面,2019年以来,我国人工智能的算力仍以GPU芯片为主要硬件承载,但随着技术的不断迭代,预计2020年,ASIC、FPGA等计算单元类别将成为支撑我国人工智能技术发展的底层硬件能力。

2020年中国人工智能产业发展形势展望

2020年中国人工智能产业发展形势展望

从政策推动来看,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区。2019年,我国31个省份中已有19个省份发布了人工智能规划,其中有16个制定了具体的产业规模发展目标,以北上广深为代表的城市积极地制定了行之有效的政策,对人工智能产业的落地和发展产生了较大的推动作用,成为中国人工智能行业的重要实践者和领头羊。

尤其是2019年下半年以来,上海市和深圳市获批成为我国首批人工智能创新应用先导区,为我国人工智能产业应用发展带来新契机。预计2020年,国内更多城市(群)将聚焦智能芯片、智能无人机、智能网联汽车、智能机器人等优势产业,面向医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域,积极申报和搭建符合自身优势和发展特点的人工智能深度应用场景,以“先导区”工作为抓手,促进人工智能产业与实体经济深度融合。

2020年中国人工智能产业发展形势展望

从投融资情况看,我国人工智能产业投资市场将关注易落地的底层技术公司。在过去5年间,我国人工智能领域投资曾出现快速增长。2015年,人工智能产业投融资规模达到450亿元。到2019年,仅上半年国内人工智能领域就获得投融资超过478亿元。近四年来,人工智能领域投融资集中在企业服务、机器人、医疗健康、行业解决方案、基础组件、金融等落地前景较好领域。预计2020年,新零售、无人驾驶、医疗和教育等易落地的人工智能应用场景将更加受到资本关注。

同时,由于中国在人工智能底层技术方面仍落后于美国,随着人工智能在中国的进一步发展,底层技术的投资热度将持续增长,那些拥有顶级科学家团队、雄厚科技基因的底层技术创业公司将获得资本市场的持续资金注入。

2020年中国人工智能产业发展形势展望

三大问题

我国人工智能领域的基础创新投入严重不足。从企业研发创新看,中国人工智能企业的创新研发支出仍远远落后于美国、欧洲和日本。2018—2019年,美国人工智能领域企业投入的科技研发费用占据了全球科技支出的61%,我国人工智能领域企业研发支出虽然快速增加,增速达到34%,但实际占据的全球科技支出份额明显小于美国。从人工智能知识产权保有量看,我国各类实体拥有的人工智能专利总量超过3万件,位居世界第一,但中国相关企业拥有的人工智能相关专利多为门槛较低的实用新型专利,发明专利仅占专利申请总量的23%。同时,根据世界知识产权组织的数据,我国企业拥有的95%的人工智能设计专利和61%的人工智能实用新型专利将会在5年后失效,相比之下,美国85.6%的人工智能专利技术在5年后仍在支付维护费用。2020年,我国需要在人工智能基础研究与创新,打造核心关键技术长板、加强知识产权保护方面加大投入力度。

我国人工智能产业的算力算法核心基础相对薄弱。我国人工智能发展在数据规模和算法集成应用上都走在世界前列,但在人工智能基础算力方面,能提供国产化算力支持的企业还不多。在人工智能的算力支持方面,IBM、HPE、戴尔等国际巨头稳居全球服务器市场前三位,浪潮、联想、新华三、华为等国内企业市场份额有限;国内人工智能芯片厂商需要大量依靠高通、英伟达、AMD、赛灵思、美满电子、EMC、安华高、联发科等国际巨头供货,中科寒武纪等国内企业发展刚刚起步。在人工智能算法方面,主流框架与数据集领域国内外企业龙头企业包括谷歌、脸书、亚马逊、微软等,深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握,百度、第四范式、旷视科技等国内企业的算法框架和数据集尚未得到业界的广泛认可和应用。2020年,我国需要进一步部署加强人工智能基础设施建设,并重视国内人工智能算法框架的创新推广。

2020年中国人工智能产业发展形势展望

以算法战、深度伪造为代表的人工智能技术滥用给经济社会带来严重负面影响。算法战指的是将人工智能算法、机器学习等技术全面应用于对敌作战中的情报收集、武器装备、战场勘测、指挥协同、决策制定等环节,核心目标是利用人工智能技术提升军事作战能力;深度伪造(Deepfakes)是“Deep Machine Learning”(深度学习)和“Fake”(造假)的英文组合词,是一种基于深度学习的人物图像合成技术,随着人工智能算法开源不断推进,深度伪造技术门槛正在不断降低,非专业人员已经可以利用简单开源代码快速制作出以假乱真的视频和图像。

2019年以来,基于人工智能的算法战和深度伪造的正在扩大军事影响、形成网络暴力、破坏政治选举、扰乱外交关系等方面被滥用,并给社会和国家带来极大风险。上述对人工智能技术的滥用给我国家安全、产业安全、社会经济安全带来巨大风险,需提前预防可能风险,并寻求国际支持。

2020年中国人工智能产业发展形势展望

2020年中国人工智能产业发展形势展望

对策建议

以算力为核心加强人工智能基础能力建设。首先要大力推进人工智能算法库、解决方案库、数据集及公共服务平台建设,强化人工智能发展基础。其次加强面向人工智能发展应用的5G网络、边缘计算硬件新兴信息基础设施建设。最后要对各行业企业自动化、智能化改造的产出、效果进行科学有效测算,指导企业找准技术研发投入的切入点,利用好人工智能技术实现经济社会高质量发展。

体系化梳理我国人工智能产业供应链现状。我们既要关注重要整机产品以及大厂商、大企业,也要覆盖量大面广的细分领域及增长势头良好的隐形冠军。

推动国内人工智能企业加快开拓国内外应用市场并提升出海抗风险能力。我国需要加强国内应用市场推广,挖掘多种类型的应用场景,培育各种规模的竞争主体,进一步提升新技术的应用水平和应用层级。同时,引导对外应用市场开拓,支持企业开拓海外市场,对出海企业在经营合规管控、知识产权管理、专利诉讼等方面的具体问题给予窗口指导。最后,提升企业自身的抗风险抗打击能力,鼓励新兴领域的独角兽企业尽快做大做强,形成较大规模体量和较强技术竞争力。

在国际社会上提出发展“负责任的人工智能”。首先应加紧研究并提出中国版的人工智能伦理守则或框架,形成人工智能伦理风险评估指标体系或风险管理指南,为人工智能企业提供风险识别、评估及应对的系统指引。其次应加强与联合国、欧盟及其成员国、G20等国际组织的合作,参与搭建多层次国际人工智能治理机制,提出发展“负责任的人工智能”供全球各国讨论,在全球人工智能伦理框架的制定议程中发挥建设性作用。

作者:曹建峰

腾讯研究院高级研究员

编者按:

随着人工智能技术的不断发展, 其对现有法律制度的冲击越来越大,在客体认定、权利归属、风险分担等问题上产生了极大的争议。在所有已提出的立法倡议中,人工智能法律地位的认定是所有法律问题的核心。此外,人工智能生成内容的可版权性、人工智能与个人信息保护、人工智能带来的伦理问题及法律规制等,也是目前备受行业关注的热点和难点。

人工智能法律问题的三个层面

近年来,人工智能技术发展取得了极大的进步,在一些领域甚至超越了人类自身的认知能力。人工智能也从一个纯粹的技术领域,一跃成为社会各界共同关注的话题。各国纷纷出台人工智能战略,加强顶层设计,人工智能由此成为国际竞争的新焦点。人工智能的跨学科研究迅速兴起,尤其是国内的法学界出现了人工智能法律研究的热潮,但却没有学者尝试从法律上对人工智能的概念进行界定,导致各种研究缺乏统一的认知基础。此外,社会公众由于对人工智能技术缺乏足够的了解,生发了人工智能取代人类工作、超级智能威胁人类生存等担忧。

那么,人工智能法律能否成为一门显学?现在又有哪些新的问题需要研究和应对?对此,微软总法律顾问Brad Smith曾有精辟论述。他写道,未来会产生所谓的“人工智能法律”这一全新的法律领域吗?今天,人工智能法律和1998年隐私法刚兴起时的境况差不多。一些既有的法律已经适用于人工智能,尤其是侵权法和隐私法。在一些特定的领域比如自动驾驶汽车等,开始出现新的监管。但是,人工智能法律尚未作为一个独立的领域存在。到2038年的时候,我敢肯定这一状况将有所改变。到那时,不仅有从事人工智能法律的执业律师,而且这些律师和其他所有律师都将依赖人工智能来辅助其执业。因此,真正的问题不是是否会出现人工智能法律,而是其如何出现,以及在什么期限内出现。

这一预测在某种程度上可以给当前的人工智能法律研究背书,即学者的研究并非镜花水月、空中楼阁,而是服务于未来将可能产生的一个全新的法律领域。综观目前的人工智能法律研究,主要存在法律人格、正义与平等、安全与认证、隐私与权力、责任、知识产权归属、竞争与消费者保护、人工智能产品监管、自主武器等九个主题,这些主题可被抽象为以下三个层面:

其一,权利的挑战。在以机器学习为代表的现代人工智能系统出现之前,人类是这个星球上唯一具有行为能力的主体,国家和公司作为法律上拟制的人,其自身不具有行为能力,需要由人类主体来代表。人工智能,作为通过一个评估过程自主作出选择的非自然实体(即机器),开始表现出像人一样的行为能力,例如达成交易、批准贷款、驾驶汽车、创作内容等等。因此,它一方面带来主体地位的挑战,另一方面带来创造成果归属和保护的挑战。

其二,责任的挑战。以自动驾驶为例,其自主性和不可预测性斩断了人类与事故之间的因果关系。

其三,伦理的挑战。体现为两个方面:一是技术应用的边界问题,例如将人工智能应用于人类增强或者武器和战争的限度在哪里;二是技术发展可能改变人类伦理,依然以自动驾驶汽车为例,随着自动驾驶系统的安全性能不断提高,当其显著超越人类驾驶水平之时,是否有必要重新考虑人类驾驶汽车活动的道德性。

人工智能治理的三点认知

在计算机与信息技术的发展史上,网络法经历了三次重大转变,每个阶段都有其特殊的问题,并产生了相应的法律规制。

第一阶段的关注焦点是计算机,各国围绕计算机的安全、犯罪、欺诈、滥用等问题制定了一系列法律,这个阶段的典型立法包括美国1984年的《计算机欺诈与滥用法案》等。互联网兴起之后,网络法发展到第二阶段,在信息大爆炸趋势下,信息成为关注焦点,法律规制围绕信息的隐私、保护、传播、滥用等问题展开,这个阶段的立法包括欧盟1995年的《个人数据保护指令》、美国1996年的《通信规范法》等。当前,网络法已经发展到了第三阶段,作为关注焦点的数据和人工智能算法带来新的问题,预计将出现一系列人工智能法律,例如欧盟的《通用数据保护条例》(GDPR)已经针对人工智能应用进行了制度安排,欧盟议会发布的《算法责任与透明治理框架》则在考虑建立算法治理框架。

就人工智能治理而言,本文提出以下三点认知:

其一,数据保护方面,明确企业间数据获取与利用的基本规则,加强对企业数据资产及其合法利益的保护。

人工智能的发展应用离不开数据,数据已经成为“新石油”,只有加强保护企业数据权益,才能为人工智能创新发展提供坚实的基础。我国法院在诸多涉及数据获取与利用的不正当竞争案件中,认为企业对其投入劳动采集、加工、整理、生成的数据享有财产性权益,典型的案件包括阳光诉霸才,大众点评诉爱帮网,钢联诉纵横、拓迪,大众点评诉百度,微博诉脉脉,酷米客诉车来了,淘宝诉美景,同花顺公司诉灯塔公司等。其实早在International News Service诉Associated Press一案中,美国最高法院就认为,信息、设计等无形物可以因劳动、金钱等投入而产生一种“准财产权”(quasi-property right),从而可以基于反不正当竞争法禁止他人不当盗用。

根据国内外相关司法判例,不当获取与利用数据主要有两种方式:一是未经许可或超出许可,采取侵入的方式获取非公开数据,通常表现为侵入服务器、破解或规避技术措施或者使用他人ID、密码等;二是采取爬虫等手段复制、抓取数据,一般针对公开数据。根据前述判例,法院在认定这些行为的不正当性时,一般采取两个测试标准:一是实质替代标准,即将获取的数据用于足以产生替代效果的竞争性产品、服务,此标准主要体现在大众点评系列案件中。二是正当商业利益标准,其出发点是企业对其投入劳动搜集、获取、加工、整理、生成的数据和数据产品,享有竞争法上的财产性利益,他人未经授权予以利用具有不正当性。例如,在奋韩网诉58同城案中,法院认定58同城网站伪装个人名义在网站上发布复制于奋韩网的侵权信息,未付出相应劳动即将他人成果据为己有,其行为掠夺了奋韩网流量、影响经营利益,严重损害了韩华公司的合法权益,违背诚实信用原则及公认的商业道德,构成不正当竞争。

其二,人工智能治理方面,考虑采取包容审慎、灵活有弹性的规制方式。

一方面,需要为自动驾驶汽车等人工智能新事物革除既有的监管法律政策障碍,例如关于驾驶人的法律要求、高速公路测试限制等,避免过时的法律要求阻碍人工智能创新发展。因为随着人工智能技术持续渗透到各行各业,带来新的产品和服务,未来新事物与旧制度的冲突会越来越多,呼吁监管法律政策的革新和创新。另一方面,由于技术以及商业模式快速发展和迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免严格、细致的法律要求,而是可以采取事后监管、追责或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等“软法”性质的规范,来调整人工智能的发展应用,支持行业自律。这意味着敏捷灵活的政策路径,例如在中国国家新一代人工智能治理专业委员会于2019年6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》中,也提出了敏捷治理的原则。

更进一步,作为对技术应用的“软法”规制,可以通过科技伦理来对科技行业狭隘的技术向度和利益局限进行纠偏和矫正。因此,需要通过预警性思考、广泛的社会参与和多学科评估,来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则,来引导、规范人工智能研发应用,以更好地应对人工智能应用可能引发的社会治理危机。

其三,算法透明与责任方面,应根据人工智能技术特征和复杂性,追求有意义的透明。

具体而言,技术透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。因此,对于现代AI系统,通过解释某个结果如何得出而实现透明,将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明,会更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。在具体落地层面,根据欧盟议会的《算法责任与透明治理框架》,对于政府和公共部门使用的算法系统,可考虑建立“算法影响评估”(AIA)机制;但不宜针对商业领域的所有算法系统应用都建立算法影响评估机制,因为这将给企业带来不成比例的财务和管理负担。相反地,可考虑建立分级监管机制,即对于那些具有与政府和公共部门的算法系统应用相似的重大影响的商业算法系统,可以考虑采取AIA机制;而对于其他商业算法系统,则采取事后追究法律责任的机制。

科技共同体承担伦理责任

践行“科技向善”

华裔AI科学家李飞飞在推动成立“斯坦福以人为本的人工智能研究院”(Stanford Institute for Human-Centered Artificial Intelligence)时表示,现在迫切需要让伦理成为人工智能研究与发展的根本组成部分。显然,在当前的人工智能技术背景下,我们比历史上任何时候都更加需要注重技术与伦理的平衡。原因有二:一方面,技术意味着速度和效率,应发挥好技术的无限潜力,善用技术追求效率,创造社会和经济效益;另一方面,人性意味着深度和价值,要追求人性,维护人类价值和自我实现,避免技术发展和应用突破人类伦理底线。只有保持警醒和敬畏,在以效率为准绳的“技术算法”和以伦理为准绳的“人性算法”之间实现平衡,才能确保“科技向善”。

因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。在这方面,国内外的科技公司开始主动承担伦理责任,一方面注重技术应用的广泛社会影响,另一方面积极采取措施,避免技术被滥用和恶用。例如,谷歌、微软等都提出了其研发和应用人工智能所要遵循的伦理原则;DeepMind成立了专门的伦理与社会部门,在技术研发投入之外,积极应对人工智能技术可能带来的伦理与社会问题;此外,技术伦理委员会日益受到科技行业的青睐,科技公司开始采取多学科评估的方式,来把脉、约束人工智能研发应用。

在国内,以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并积极践行“科技向善”理念。例如,将人工智能应用于医疗健康领域,致力于打造“救命的AI”;将计算机视觉技术应用于失踪人口寻找,协助警方打拐寻人,包括基于“跨年龄人脸识别”助力警方寻回被拐十年儿童,这在采用人工智能之前单纯地依靠人力是几乎不可能实现的;发起FEW项目,将人工智能应用于食物、能源和水资源(FEW),致力于解决人类所面临的最大挑战。此外,在今年3月提交的建议案《关于加强科技伦理建设践行科技向善理念的建议》中,全国人大代表、腾讯董事会主席兼首席执行官马化腾呼吁,在全社会、全行业积极倡导“科技向善”“负责任创新”“创新与伦理并重”等理念,并建议加强科技伦理的制度化建设,加强科技伦理的教育宣传。

最后作为总结,现代数字技术与经济社会正以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化,使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科技共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。因此,只有通过科技伦理教育宣传,增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究评估的方式,来实现对人工智能前沿技术的良好治理。

文章来源:中国知识产权杂志总第149期

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/55.html

评论