首页 资讯正文

美国FTC报告:人工智能在打击虚假信息、深度伪造上存风险

21世纪经济报道 记者张雅婷 实习生高艺 广州报道 近日,美国联邦贸易委员会(FTC)向美国国会发布一份报告,指出使用人工智能技术在打击虚假信息、深度伪造和其他网络问题上存在风险。报告显示,人工智能在设计上可能不准确、有偏见与歧视性,并可能造成对商业不当监控的鼓励。

事实上,对人工智能可能带来的社会风险和防治已经成为全球共同关注的话题。面对人工智能可能造成的社会风险、法律侵权、道德伦理争议,各国监管一直走在探索的路上,寻求鼓励技术创新和防治社会风险之间的平衡。

算法技术的合规重要性近年来在我国多次被强调。继《个人信息保护法》与《互联网信息服务算法推荐管理规定》的规制之后,6月22日中央全面深化改革委员会第二十六次会议中再次指出,加强平台企业沉淀数据监管,规制大数据杀熟和算法歧视。

AI存风险,立法需警惕

此次报告的发布是出于国会的审查请求。在《2021年综合拨款法案》中,国会指示FTC审查人工智能是否以及如何“可能被用于识别、删除或采取任何其他必要的适当行动”,以应对各种特定的“网络危害”。国会特别关注的在线问题包括在线欺诈、假冒诈骗、虚假评论和账户、机器人攻击、社交媒体操纵、非法毒品销售和其他非法活动、在线骚扰和网络跟踪,以及影响选举等。

报告建议,国会不要将AI当作解决这些网络问题的政策方案,并指出采用人工智能可能带来的额外危害。报告概述了与使用人工智能相关的几个问题:

一是人工智能具有固有的设计缺陷和不准确性。人工智能具有内置的不精确性和不准确性,对“网络危害”的监测能力受到设计缺陷的显著限制,例如可能出现不具有代表性的数据集、错误的分类、未能识别新现象以及缺乏上下文和意义等;

二是人工智能携带偏见和歧视。人工智能会反映开发人员的偏见,从而导致错误的结果和潜在的非法风险。报告示例包括人工智能导致对受保护人群的歧视,或可能通过过度限制内容而损害表达自由;

三是人工智能可能鼓励商业对人们的不当监控。由于技术开发需要大量数据,人工智能可能会鼓励和支持商业监控和数据提取的行为。此外,提高人工智能的准确性和性能需求可能会导致更具侵入性的监视形式。

报告发现,鉴于主要技术平台和其他平台已使用人工智能来解决网络危害,立法者更应考虑制定法律框架,以确保人工智能不会造成额外伤害。政府、平台等必须非常谨慎地强制使用或过度依赖这些工具,即使是为了减少危害的重要目的。国会不应推出那些要求公司使用人工智能来监测有害内容的法律,且迫使平台快速删除某些有害内容的法律会因为损害言论自由而无法通过《宪法第一修正案》的审查。

报告认为,对于任何涉及人工智能使用与处理网络危害问题的法律,都有三个关键的考虑因素——定义、覆盖范围和线下影响。首先,人工智能、算法、网络危害等术语的定义因其模糊性和广度存在争议。其次,法律涵盖范围存在问题,例如覆盖技术的哪些部分;如果仅限于社交媒体公司,是否应根据规模区分这类公司与如何衡量规模;法律应涵盖为不同代际的人提供网络服务的规定。最后,网络危害将对线下也产生影响,立法者要避免孤立看待。

报告提出,立法重点应该优先考虑创建、使用人工智能解决网络危害的平台的透明度和问责制,包括公开披露信息,即使用人工智能的方式与数据;研究人员可获取额外信息;保护举报人、审计员、研究人员和记者;公开审计和评估的要求;推出标记违规内容、投诉内容、通知删除、纠正删除的系统。报告敦促国会关注增强数据访问所带来的隐私和安全风险。

AI监管,全球在路上

近年来,人工智能商业化风起云涌,技术可能造成的社会风险及防治方式已是全球关注的重点。目前,人工智能可能出现算法黑箱、安全漏洞、算法歧视、隐私侵犯、信任危机等多重问题。面对人工智能可能造成的社会风险、法律侵权、道德伦理争议,各国一直在寻求鼓励技术创新和防治社会风险之间的平衡。

欧洲走在人工智能法律监管的前列。2015年,欧盟委员会决定下设负责人工智能法律与政策研究的工作小组。2017年,欧盟议会发布《欧盟机器人民事法律规则》。2018年12月,欧盟委员会通过《人工智能开发和适用伦理指南草案》。2019年欧盟委员会发布《可信赖人工智能伦理准则》,准则包括七项要素:人的能动性和监督、技术稳健性和安全性、隐私和数据管理、透明度、多样性和非歧视性以及公平性、社会及环境福祉、问责制。2020年2月,欧盟委员会发布《人工智能白皮书——欧洲追求卓越和信任的策略》,希望建立可信任的人工智能生态系统。2021年4月,欧盟委员会发布立法提案《欧洲议会和理事会关于制定人工智能统一规则(《人工智能法》)和修正某些欧盟立法的条例》,是目前在该方面涉及范围最广泛的条例之一,正在通过评论期和重新修订迅速推进。该提案规定了企业和政府应如何使用人工智能技术,将对“高风险”领域的人工智能使用进行限制。根据该提案要求,欧盟将有可能对违规最严重的公司处以相当于其全球年销售额6%的罚款。

在美国,立法者提出了追求透明度、问责性和“可解释性”的人工智能监管法案,强调监管灵活性,在发布多份发展规划文件之外,也关注技术监管。2018年6月首次提出、2019年7月再次提出的《自动程序披露和问责法》要求FTC制定法规,强制数字平台公开披露其使用“网络复制人们行为的自动化软件程序或过程”的情况,禁止政治候选人等使用自动程序来分享或传播任何针对政治选举的信息。2019年,参议院提出《算法问责法》,赋予FTC执行和监管的权力,要求企业研究并修复存在缺陷的、会导致人们产生不准确、不公平、有偏见或歧视性决策的算法。该法案是美国国会第一次立法尝试全面监管人工智能系统。2020年1月,美国联邦政府发布《人工智能应用的监管指南》,这是美国发布的首个人工智能监管指南。2021年10月,白宫科技政策办公室 (OSTP) 宣布了一项制定《人工智能权利法案》(自动化社会的权利法案)的计划,试图改善社会隐私泄露、算法透明度不足、生物识别技术的滥用等问题。

在我国,人工智能的风险防控也提上日程。2017年7月,国务院公布了《新一代人工智能发展规划》,这是我国发展人工智能的远景规划。中国信息通信研究院发布的《人工智能安全白皮书(2018年)》将人工智能安全风险划分为六大类:网络安全风险、数据安全风险、算法安全风险、信息安全风险、社会安全风险与国家安全风险。国家新一代人工智能治理专业委员会于2019年发布《新一代人工智能治理原则——发展负责任的人工智能》,强调人工智能发展应遵循和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八条原则。2021年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期。

在与人工智能息息相关的算法技术方面,我国出台的多份法律法规作出严格监管。2021年8月,我国发布的《个人信息保护法》规定不得实施“大数据杀熟”,个性化推荐应同时提供不针对其个人特征的选项,或便捷的拒绝方式等。2021年12月,《互联网信息服务算法推荐管理规定》发布,针对在我国境内应用算法推荐技术提供互联网服务所应当遵循的合规要求作出明确规定,包括保证用户对算法的知情权和选择权,建立完善的人工干预和用户自主选择机制,不得利用算法实施影响网络舆论、规避监督管理以及垄断和不正当竞争行为等。

2022年4月,中央网信办牵头开展“清朗·2022年算法综合治理”专项行动,排查整改互联网企业平台算法安全问题,评估算法安全能力,重点检查具有较强舆论属性或社会动员能力的大型网站、平台及产品,督促企业利用算法加大正能量传播、处置违法和不良信息、整治算法滥用乱象、积极开展算法备案,推动算法综合治理工作的常态化和规范化。6月22日,中央全面深化改革委员会第二十六次会议中再次指出,加强平台企业沉淀数据监管,规制大数据杀熟和算法歧视。

人工智能是未来技术发展的前景,会带来产业变革,但也存在着全新的社会风险。通过法律进行监管和防范,是各国必须要探讨的问题。正如此次报告的起草人、FTC消费局局长塞缪尔·莱文 (Samuel Levine) 所说:“新技术是把双刃剑,打击有害的网络内容需要广泛的社会努力,而不是过于乐观地相信新技术可以帮助我们摆脱这些问题。”

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/38462.html

发表评论

评论列表(0人评论 , 5117人围观)
☹还没有评论,来说两句吧...