机器人法则(Laws of robotics)是一套法律,规则或原则,旨在作为支持机器人行为的基本框架,旨在实现一定程度的自治。这种复杂程度的机器人尚不存在,但它们已经在科幻小说,电影中被广泛预期,并且是机器人和人工智能领域积极研究和开发的主题。
最着名的一套法律是艾萨克·阿西莫夫(Isaac Asimov)在20世纪40年代写的,或者基于它们的法律,但是自那时起几十年来研究人员提出了其他一套法律。
艾萨克·阿西莫夫的“机器人三定律”
最着名的法律是艾萨克·阿西莫夫的“机器人三定律”。这些是在他1942年的短篇小说“Runaround”中引入的,尽管它们在早期的一些故事中被预示过。三条法则是:
机器人不会伤害人类,或者通过不作为,允许人类受到伤害。
机器人必须遵守人类给予的命令,除非这些命令与第一定律相冲突。
只要这种保护不与第一或第二法律冲突,机器人就必须保护自己的存在。
在他的“基金会和地球”一书的最后,引入了第0条法则:
0.机器人不会伤害人类,或者通过无所作为,让人类受到伤害。
基于该框架存在适应和扩展。截至2011年,它们仍然是一个“虚构的设备”。
EPSRC / AHRC机器人原理
2011年,英国工程与物理科学研究委员会(EPSRC)和艺术与人文研究委员会(AHRC)联合发布了一套五套道德“机器人设计师,建造者和用户原则”,在现实世界中,根据2010年9月的研究工作坊,有七条“高级信息”打算传达:
机器人不应单独或主要用于杀死或伤害人类。
人类,而不是机器人,是负责任的代理人。机器人是旨在实现人类目标的工具。
机器人的设计应确保其安全性。
机器人是文物; 它们不应该通过唤起情绪反应或依赖来利用弱势用户。始终可以从人类那里告诉机器人。
应始终可以找出谁对机器人负有法律责任。
打算传达的信息是:
我们相信机器人有可能为社会带来巨大的积极影响。我们希望鼓励负责任的机器人研究。
糟糕的做法伤害了我们所有人。
解决明显的公众关注将有助于我们所有人取得进展。
重要的是要证明我们作为机器人专家致力于达到最佳的实践标准。
要了解我们研究的背景和后果,我们应该与其他学科的专家合作,包括:社会科学,法律,哲学和艺术。
我们应该考虑透明度的道德规范:公开可用的内容是否有限制?
当我们在媒体上看到错误的帐户时,我们会花时间与报道记者联系。
EPSRC原则被广泛认为是一个有用的起点。2016年,托尼普雷斯科特组织了研讨会,以修订这些原则,例如将道德与法律原则区分开来。
司法发展
用于机器人技术发展的法律评估的另一个全面的术语编纂工作主要在亚洲国家开始。这一进步代表了对机器人领域法律(和道德)的当代重新解释,这种解释假设重新思考传统的法律星座。这些主要包括民法和刑法中的法律责任问题。
Satya Nadella的定律
2016年6月,微软公司首席执行官萨蒂亚·纳德拉(Satya Nadella)接受了Slate杂志的采访,大致勾画了他们的设计师观察到的五条人工智能规则:
“人工智能必须旨在帮助人类”,这意味着人类的自治需要得到尊重。
“人工智能必须透明”,这意味着人类应该知道并能够理解它们是如何工作的。
“人工智能必须在不破坏人的尊严的情况下最大限度地提高效率”。
“人工智能必须设计为智能隐私”,这意味着它通过保护信息获得信任。
“人工智能必须具有算法责任,以便人类可以消除意外伤害”。
“人工智能必须防范偏见”,这样他们就不能歧视别人。
蒂尔登的“机器人法则”
Mark W. Tilden是一位机器人物理学家,是开发简单机器人的先驱。他对机器人的三条指导原则/规则是:
机器人必须不惜一切代价保护其存在。
机器人必须获得并保持对其自身电源的访问。
机器人必须不断寻找更好的电源。
这三条规则中值得注意的是,这些基本上都是“狂野”生活的规则,所以蒂尔登所说的实际上是他想要的是“将一种硅物种进入感知状态,但完全控制规格。不是植物。不是动物。还有别的。“