当前位置:首页 > 资讯 > 正文

人工智能对隐私权的影响与法律应对

【摘要】人工智能对隐私权的影响主要体现在可能干扰个人对自身隐私的自治,可能削弱现有的个人信息保护机制,而且以人工智能为基础的监视系统对隐私信息实施无差别收集。因此,降低甚至消除人工智能对隐私权的影响,既要通过加强隐私权的立法保护和强化技术标准,构建隐私权的事前保护法律制度,也要建立以公益诉讼和消费者集体诉讼为主体的事后救济机制。

【关键字】人工智能 隐私权 公益诉讼 集体诉讼 【中图分类号】D923 【文献标识码】A

人工智能技术的兴起为公众日常生活带来了巨大变化,无人驾驶、智能助理以及人脸识别等一系列技术已经得到广泛应用,无人机、无人驾驶汽车也开始进入民用领域,这些技术极大的便利了人们的工作与生活,但其对个人隐私造成的影响也引起了公众的普遍担忧。例如,无人驾驶汽车是否会擅自收集存储乘客的出行信息?人脸识别技术是否会导致客户面部信息遭到滥用?等等。在互联网行业愈发白热化的竞争背景下,这样的担忧是具有合理性的。

在人工智能时代下,个人自治的隐私中所包含的“是否愿意接受监控”的问题显得尤为突出

法律意义上的隐私权主要包括“个人自治”和“个人信息”两方面内容,其中个人自治是指个人对自身隐私的自由处置权利;个人信息则是指能够单独或者与其他信息结合,以识别特定个人身份或者反映特定个人活动情况的各种信息。

人工智能可能干扰个人对自身隐私的自治。一般而言,个人自治通过个人的控制能力实现,以人工智能中的无人驾驶技术为例,乘客主动选择无人驾驶汽车出行是个人自治,但人工智能技术可能影响这种行为的“自治性”,因为无人驾驶的便利性是以收集和使用乘客的个人信息为基础,因此,乘客表面上虽享受到人工智能技术的便利,实际上却是在“便利性”与“让渡个人信息”二者之间作出选择。随着技术的不断发展与普及,当无人驾驶成为主流出行方式后,乘客将在实质上失去自由选择的权利,只能被迫将出行习惯、工作地址等个人隐私上传给汽车服务商,丧失对于自身隐私的自治权。

人工智能可能削弱现有的个人信息保护机制。现有法律关于个人隐私的保护机制主要围绕“当事人自愿”来构建,即只有在经过用户的同意后,他人才可收集用户的隐私信息。但人工智能的应用却使一些公司在未经用户同意的情况下也能获取其个人信息,并可能用于盈利活动,例如,使用手机助理时用户与手机之间存在文字、语音交流,但用户的本意只是希望手机助理为其查询资料,但手机厂商却利用技术记录并上传此次对话内容;又如乘坐无人驾驶汽车时,乘客必须对汽车下达语音指令,但其本意只是希望告知此次出行的目的地,但汽车厂商却可能借此存储并分析乘客的出行习惯;在使用人脸识别产品时,用户为了通过认证需要展现自己的完整面部,但相关服务商却可能将其面部特征予以存储并用于其他方面。可见,基于人工智能技术的产品通常具有很强的人机交互性,用户在使用这类产品时必然会与机器产生互动,这就决定了有些人工智能公司有能力不经用户同意而直接收集其个人隐私信息。

以人工智能为基础的监视系统对隐私信息实施无差别收集。人工智能技术可以让各类产品具备“无差别监视”的能力,在一定区域内以非歧视的方式全面收集信息。比如,无人机送货时会以无差别监视的方式收集沿路地形地貌、建筑物高度等信息,以校准位置、实现准确投送;无人驾驶汽车上安装的传感器和摄像头会持续不断地收集行进时的周遭道路状况,以区分和避开障碍,这样的无差别监视使得无人机、无人驾驶汽车收集的信息十分全面系统,以达到足够构建出区域内的完整地貌、街景的程度。对此,美国联邦通信委员会已经表现出极大的担忧,并下令禁止了谷歌公司以开发地图软件的名义收集道路街景信息。可以预见的是,如果任由人工智能产品实施无差别的信息收集,那么其运行过程中可能不会区分各类信息是否属于隐私权的保护范畴,这可能将对信息安全和隐私权保护造成威胁。

通过立法保护和强化技术标准,构建隐私权的事前保护法律制度

加强隐私权的立法保护,做到有法可依。首先,应当完善隐私权的相关立法,明令禁止通过人工智能技术非法获取个人隐私的行为,为隐私权的保护提供清晰的法律依据。《中华人民共和国网络安全法》中虽然有强调“不得侵害个人隐私”的条款,但该法主要是针对线上网络活动,这些活动与人工智能技术有所差异,因此,有必要通过完善立法的方式扩大隐私权的保护范围,诸如将线下人工智能产品、基于人工智能的公共设施等纳入法律调整范围。其次,在合同法层面,要明确细化人工智能产品方的合同义务,对其制定的格式合同提出更为详尽的要求,比如,必须写明其收集个人信息的具体方式、范围和用途,并禁止产品方利用合同条款强迫用户让渡隐私权。再次,强化人工智能产品方的告知义务,一旦出现用户隐私信息泄露或被他人非法获取的情形,人工智能产品方应及时通知相关部门、采取补救措施,并及时告知受影响的相关个人。最后,规范人工智能产品方的信息收集行为,制定合法收集个人信息的认定标准。重点针对实践中各大互联网公司普遍采用的“数据脱敏”技术,即通过“数据脱敏”将个人信息转化为“无法识别特定个人身份”的大数据,以符合法律要求,但目前一些公司的“数据脱敏”执行标准不严格,采用非法手段简单“脱敏”进而无法达到保护个人隐私的效果。因此,有必要制定“数据脱敏”方面的相关法律法规,建立“数据脱敏”的审查制度,以及允许个人主动删除自身隐私信息的授权制度等,全面系统地规范人工智能公司的“数据脱敏”行为。

强化技术标准,实现精准防控。由于人工智能技术含有大量的编程、统计学等技术性内容,仅通过立法手段,难以对这些技术细节进行专门规范,因此还需进一步制定配套的技术标准,统一规范人工智能产品的设计、安全措施的制定等。一方面,应规范人工智能产品的“隐私设计”,从源头上加强对信息的保障。“隐私设计”是一种全新的产品开发手段,旨在防止用户身份信息泄露,这一技术在区块链领域内得到了广泛应用。以无人驾驶为例,由于汽车本身产生的数据极其重要,是监控汽车安全性不可或缺的信息,故有必要全面进行收集,但同时这种信息收集又可能牵涉到乘客隐私,故一些汽车厂商使用“隐私设计”技术,在设计无人驾驶系统时将“车辆运行信息”与“个人隐私”分别存储,分类制定不同的信息处理方式,确保个人隐私得到保护。另一方面,还可以建立人工智能产品的许可制度,构建权威的审批机构来负责审查各类人工智能产品的“隐私设计”情况,给合格者颁发许可证,禁止不合格产品的发行,通过行政监管的力量对人工智能市场实施适度干预。

建立以公益诉讼和消费者集体诉讼为主体的事后救济机制

人工智能产品侵害隐私权的案件通常具有影响范围广、后果扩散迅速、损失较为严重的特点,还会牵涉到复杂的取证调查、技术鉴定等问题,仅靠个人力量很难实施 ********* ,因此,一方面,可以发挥公益诉讼在重大民事案件 ********* 方面的优势,完善相关程序法,明晰公益诉讼负责机关相应的职责职能,将运用人工智能技术所导致的隐私侵犯案件纳入到公益诉讼的范围内。另一方面,建立针对人工智能公司的消费者集体诉讼制度,集体诉讼的最大特点是受害者遵循“默认参加”的原则,即除非受害者明确表示退出诉讼,否则一律认定受害者为集体诉讼的参与者。这一制度有利于补公益诉讼的原告主体范围较窄仅能由专门机关提起诉讼的短板,从根本上解决人工智能所导致的隐私侵犯案件中受害者人数众多而且分散的问题。

为构建系统的事后救济机制,首先,需要对《中华人民共和国民事诉讼法》《中华人民共和国消费者权益保护法》予以相应地调整和完善,明确公益诉讼、消费者集体诉讼的适用情形、管辖权分配等制度;其次,要发挥信息时代互联网平台的优势,在损失记录、 ********* 人员身份登记确认、公告通知、赔偿执行等方面实施创新管理,利用互联网技术实现高效服务,降低大规模诉讼的成本费用;最后,应加强司法机关与信息安全部门的协作,在技术鉴定、损失界定、调解和解、案件执行等方面形成合力,从而更好地开展隐私权的事后救济工作。

(作者为上海财经大学法学院博士研究生)

【参考文献】

①张爱军:《人工智能:国家治理的契机、挑战与应对》,《哈尔滨工业大学学报(社会科学版)》,2020年第1期。

责编/谢帅 美编/杨玲玲

声明:本文为人民论坛杂志社原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。