大约72年前,我们介绍了由科幻作家艾萨克·阿西莫夫的机器人三定律。爱游戏备用这三个法律是用来控制机器人在道德和伦理。
然而,如果你看看当前的机器人,很明显,我们还是远离的时候我们可以灌输这些法律,或任何法律,为机器人的编码。为了实现机器人的道德,美国国防部已经开始调查这件事,这样机器人的周围发生了什么,可以有良知的反应。
一个研究小组已经涉及塔夫斯大学的研究人员组成,布朗大学、伦斯勒理工学院和国防部。关键思想是传授这种道德为机器人和想出一个系统失败证明或至少是安全的故障,我们看到的电影和读小说。如果团队成功,AI将能够自主评估任何情况下,可以采取伦理决策,能够覆盖给它的指令。例如,医学机器人被指示去供应商店将有足够的道德评估需要在路上的人必须帮助,能够覆盖的指令去商店。
目前,Matthias Scheutz教授领导的研究小组正致力于打破人类的道德意识到它的基本组件,这将允许团队提出一个系统的模式,人类的道德推理是如何工作的。下一步将是赋予这个框架的编码机器人,这将使它能够覆盖指示如果提出了新的证据,应该能够证明它主人。
根据教授;“道德能力大致可以思考学习能力,原因,行动,和讨论法律和社会习俗,人们倾向于同意。问题在于机器-或任何其他人工系统,对于这个问题,可以模拟和锻炼这些能力。
在版本正在开发原则理念是采用两个系统;将初步的道德检查其次是复杂的系统开发。
虽然这将导致一个巨大的技术进步和进步;让我们希望我们不会面临任何中跑的启示。
是的,这是真的。
“让我们希望我们不会面临任何中跑的启示。”
我们希望有一天你读了我的书而不是看电影。