|
在我们印象中,机器人对人类指令言听计从,从来不反抗。只是在一些特殊场合会出现中断,如汽车生产线上遇到人的阻力时,会适时停止,以免伤到人类。美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说“不”。
通常来讲,机器人是应该始终对人类的指示唯命是从的。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。
这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说,“我知道要怎么操作吗?”,“这件事是否在我工作范围内?”以及确认“要做这件事的话,我是否违背了正常的规则?”并且最后的关键的一点是,一定不要伤害人类以及相关财产安全,这一点是至关重要的。
最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。我们要极力避免这种情况,并且可以让机器人自己来判断从而拒绝人类的要求。
让机器人有自己的行为准则,来判断自己的行为是否会给人类造成损失和伤害,是未来人类研究智能机器人的方向,我们需要更加智能安全的机器人来为我们服务!
|
|