首页 资讯正文

人工智能 、物联网 、机器人技术对安全和责任框架的影响

导读:今年2月,欧盟委员会发布了人工智能物联网机器人对安全和责任框架的影响。在最新一期的CCID翻译中,CCID安全工业研究所编辑了这份报告。报告介绍了新兴技术的特点,深入分析

今年2月,欧盟委员会发布了人工智能、物联网和机器人对安全和责任框架的影响。在最新一期的CCID翻译中,CCID安全工业研究所编辑了这份报告。

人工智能 、物联网 、机器人技术对安全和责任框架的影响

报告介绍了新兴技术的特点,深入分析了现行欧盟安全与责任框架不能适用于这些新兴技术的环节,建议采取适当措施调整现行产品责任指令和通用产品安全指令,以解决现有安全与责任框架的不确定性。

1.安全和责任框架概述

安全和责任框架的总体目标是确保所有产品和服务(包括整合新兴数字技术的产品和服务)的安全、可靠和同步运行,并有效修复已经发生的损失。

随着人工智能、物联网和机器人等新技术的兴起,为了保护消费者和企业的合法权益,建立明确的安全和责任框架势在必行。

2.人工智能、物联网和机器人的特点和机遇

新兴技术的特征

人工智能、物联网和机器人学有许多共同的特征,包括连通性、自主性、复杂性和数据依赖性。

新兴技术的机遇

一方面,新技术可以通过提高产品的安全性来降低一些风险。

另一方面,物联网系统可以接收和处理来自不同来源的大量数据,提高产品召回的有效性,提醒用户避免产品安全问题。如果制造商发现使用物联网产品存在安全问题,可以直接与用户沟通,提醒用户相关风险,或者直接解决问题。

3.人工智能、物联网和机器人对现有安全框架的挑战及对策

新兴技术的连通性挑战了传统的安全概念

连通性已经成为新兴产品和服务的核心特征,这挑战了传统的安全概念。

欧盟产品安全法规尚未针对影响用户安全的网络威胁制定特别强制性要求。但是,《医疗器械条例》、《测量仪器指令》、《无线电设备指令》和《整车型式认证条例》包含了网络威胁安全的相关规定。《网络安全法》为信息和通信技术产品、服务和流程建立了自愿网络安全认证框架。

人工智能的自主性和制造商的期望之间存在偏差

人工智能产品和系统的自主性可能会使机器做出的决策偏离生产者的初衷和用户的期望。

目前,欧盟法律框架中的安全通常指人身伤害威胁。然而,人工智能应用的类人行为可能会给使用者带来心理健康风险,因此我们应该考虑将心理健康风险纳入立法框架。同时,制造商需要知道他们的产品可能对使用者(尤其是易受伤害的使用者,如被照顾的老人)造成的心理伤害。

数据依赖带来的安全风险需要一种安全保障机制

数据的准确性和相关性可以保证人工智能系统根据生产者的意图做出决策。

欧盟产品安全法规应规定,制造商应解决设计阶段因错误数据造成的安全风险。确保在使用人工智能产品和系统的过程中有一个良好的机制来确保数据质量。

人工智能的不透明性使得决策过程难以跟踪

人工智能产品和系统的不透明性可能使其难以跟踪系统的决策过程,这被称为“算法黑箱”。

有必要考虑制定更多关于算法透明度、健壮性和问责制的相关法律法规。如果发生事故,规定算法开发人员必须披露数据集的设计参数和元数据。

软件更新对安全构成威胁

当产品投放市场时,最终产品的制造商有义务预见产品中集成软件的风险。

欧盟产品安全法规仍然需要对独立软件做出具体明确的要求,以确保人工智能产品和系统中的独立软件具有安全功能。此外,应要求制造商承担相关的强制性义务,以确保上传的软件在其生命周期内不会影响人工智能产品的安全性。

新兴数字技术受到复杂价值链的影响

根据欧盟产品安全框架,产品安全的责任由生产商承担,包括集成在产品中的所有组件。欧盟产品安全法规考虑了价值链的复杂性,并根据“共同责任”原则对许多企业规定了义务。

4.人工智能、物联网和机器人对现有责任框架的挑战及对策

新技术降低责任框架的有效性

人工智能、物联网和机器人等新数字技术的特点可能会在某些方面影响责任框架,降低其有效性。

与其他同类产品和服务相比,数字新技术产品和服务事故的受害者不能享受国家侵权法规定的赔偿保护,这可能会降低社会对新技术的接受度,增加应用阻力。

此外,有必要进一步评估新技术对现有责任框架的挑战是否会导致法律适用的不确定性,并可能增加生产商和供应链中其他企业的信息和保险成本。

产品、服务和价值链的复杂性增加了索赔的难度

人工智能应用通常集成在复杂的物联网环境中,这相应地提高了用户的索赔门槛。

通过修订《产品责任指令》,可以减轻与人工智能相关的受害者的举证责任,进一步统一国家责任规则。

连通性和开放性挑战了网络安全的义务

对于产品网络安全漏洞造成的损害能否得到充分赔偿,目前还没有明确的法律规定。在现有的责任框架下,应该建立明确的网络安全义务,使运营商能够明确自己的义务,避免承担不必要的责任。

自主性和不透明性使得索赔变得困难

人工智能的“算法黑箱”效应使得人工智能应用的自主性所造成的损害很难得到补偿。理解人工智能使用的算法和数据需要专业的分析能力和技术专长,而受害者可能会付出高昂的代价。

此外,如果没有潜在责任方的合作,算法和数据将无法访问,这导致受害者无法提出责任索赔。

欧盟委员会正在寻求运行具有特定风险的人工智能应用的建议,以便有效地补偿潜在的受害者。此外,欧洲联盟委员会仍在寻求建议,将严格责任确定与制定现有保险的潜在义务相结合,以确保受害者能够获得赔偿,而不管责任方的偿付能力如何。

翻译自:关于人工智能、物联网和机器人的安全和责任含义的报告

以上是部分内容,完整版本如下:

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/135.html

评论