首页 资讯正文

人工智能的不可控性

人工智能的不可控性

人工智能的发明将改变人类文明的轨迹。但是,为了从如此强大的技术中获益,避免危险,人们必须能够控制它。目前,人们甚至不知道这样的控制是否有可能。有科学家认为,人工智能不可能被完全控制。

过去十年里,人工智能(AI)的发展并非一帆风顺。多次AI失败的情况表明,在创建高能力机器的同时这些机器也必须对人类有益。这种担忧催生了一个新的研究领域“ AI安全与保障”。但是所有这些研究都假设控制高性能智能机器是可能的。

人工智能控制问题是人工智能安全保障的决定性挑战和难题。控制超级智能的方法分为两大阵营:能力控制和动机控制。能力控制通过限制ASI系统的环境、增加关闭机制来限制ASI系统的潜在危害。动机控制将ASI系统设计为一开始就不希望造成伤害。能力控制方法最多被认为是临时措施,当然不能作为ASI控制的长期解决方案。

动机控制是一种更有前途的方法,需要被设计到ASI系统中。但也有不同类型的控制,人们可以很容易地在“智能”自动驾驶汽车的例子中看到。比如有人发出“请停车!”指令,人工智能可以通过四种方式做出反应:

显式控制——人工智能会立即停车,即使是在高速公路中间,因为它只会理解字面意思。这是现今人们在语音助手(Siri等)所常见的。

隐式控制——人工智能试图在安全的情况下停车。这类人工智能有一定的常识,但仍然试图遵循命令。

统一控制——人工智能知道人类可能需要去洗手间,并把车停在最近的服务区。这种人工智能依靠它的人类模型来理解命令的意图。

委托控制——人工智能不会等待人类发出任何命令。它把车停在健身房,因为它相信人需要锻炼。这个人工智能就在控制人类。

这些选项,人们意识到两件事。首先,人类容易犯错,因此从根本上来说人们是不安全的,所以让人控制将会产生不安全的人工智能行动(如在高速公路上停车),会更不安全。其次,如果将决策权移交给人工智能会让人们屈服于人工智能的指令。

有人认为,不受控制的人工智能的后果将非常严重,即使是非常小的风险,也需要进行人工智能安全研究。

在最好的情况下,人们可以达到某种平衡,与人工智能生活在一起,人类要么得到保护,要么得到尊重,但不能两者兼而有之。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/7270.html

发表评论

评论列表(0人评论 , 7127人围观)
☹还没有评论,来说两句吧...