人工智能的最新发展引起了一些道德困境。
其中最重要的也许是人类是否可以控制自主机器。
人工智能驱动的机器人照顾家务或自动驾驶汽车(例如亚马逊)的情况越来越普遍。
尽管这种技术使生活更轻松,但也会使生活更加复杂。
一个国际研究小组警告说,创建过于强大和独立的软件存在潜在的风险。
通过一系列理论计算,科学家们探索了如何控制人工智能。
根据发表在《人工智能研究门户杂志》上的研究报告,他的结论是不可能的。
“控制世界的超级智能机器听起来像科幻小说。
但是,已经有一些机器可以独立执行某些重要任务,并且程序员不能完全理解他们的学习方式。
这种情况可能会变得“不可控制且对人类构成危险”。
这项研究的合著者,马克斯·普朗克人类发展研究所的曼努埃尔·塞布里安(Manuel Sebrian)说。
科学家们尝试了两种控制人工智能的方法。
一种是将其与Internet和其他设备隔离,从而限制其与外界的联系。
问题在于,这将大大降低其执行为其创建的功能的能力。
另一种是设计一种“理论上包含算法”。
确保人工智能“在任何情况下都不会伤害人”。
但是,对当前计算范式的分析表明,无法创建此类算法。
“如果将问题分解为理论计算的基本规则,则表明指示AI不破坏世界的算法可能会无意间停止其自身的运行。
如果发生这种情况,我们将不知道遏制算法是否会继续分析威胁。
或者它是否将不再包含有害的AI。
实际上,这使遏制算法无法使用”。
另一位研究人员Iyad Rahwan解释说。
基于这些计算,问题在于没有确定AI是否会损害世界的算法。
研究人员还指出,人类甚至可能都不知道何时会出现超级智能机器,因为确定设备是否具有卓越的智能和遏制问题是同一领域。