科学家探索如何控制人工智能

人工智能的最新发展引起了一些道德困境。

其中最重要的也许是人类是否可以控制自主机器。

人工智能驱动的机器人照顾家务或自动驾驶汽车(例如亚马逊)的情况越来越普遍。

尽管这种技术使生活更轻松,但也会使生活更加复杂。

一个国际研究小组警告说,创建过于强大和独立的软件存在潜在的风险。

通过一系列理论计算,科学家们探索了如何控制人工智能。

根据发表在《人工智能研究门户杂志》上的研究报告,他的结论是不可能的。

“控制世界的超级智能机器听起来像科幻小说。

但是,已经有一些机器可以独立执行某些重要任务,并且程序员不能完全理解他们的学习方式。

这种情况可能会变得“不可控制且对人类构成危险”​​。

这项研究的合著者,马克斯·普朗克人类发展研究所的曼努埃尔·塞布里安(Manuel Sebrian)说。

科学家们尝试了两种控制人工智能的方法。

一种是将其与Internet和其他设备隔离,从而限制其与外界的联系。

问题在于,这将大大降低其执行为其创建的功能的能力。

另一种是设计一种“理论上包含算法”。

确保人工智能“在任何情况下都不会伤害人”。

但是,对当前计算范式的分析表明,无法创建此类算法。

“如果将问题分解为理论计算的基本规则,则表明指示AI不破坏世界的算法可能会无意间停止其自身的运行。

如果发生这种情况,我们将不知道遏制算法是否会继续分析威胁。

或者它是否将不再包含有害的AI。

实际上,这使遏制算法无法使用”。

另一位研究人员Iyad Rahwan解释说。

基于这些计算,问题在于没有确定AI是否会损害世界的算法。

研究人员还指出,人类甚至可能都不知道何时会出现超级智能机器,因为确定设备是否具有卓越的智能和遏制问题是同一领域。

产品知识/行业、品牌资讯