找回密码
 立即注册

QQ登录

只需一步,快速开始

微信扫码登录

搜索
查看: 664|回复: 0

[原创] 会读人类指令适时说“不”的机器人

[复制链接]

165

主题

99

回帖

438

积分

二级士官

积分
438
发表于 2015-12-14 23:09:11 | 显示全部楼层 |阅读模式
    在我们印象中,机器人对人类指令言听计从,从来不反抗。只是在一些特殊场合会出现中断,如汽车生产线上遇到人的阻力时,会适时停止,以免伤到人类。美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说“不”。
智能.jpg


    通常来讲,机器人是应该始终对人类的指示唯命是从的。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。
     这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说,“我知道要怎么操作吗?”,“这件事是否在我工作范围内?”以及确认“要做这件事的话,我是否违背了正常的规则?”并且最后的关键的一点是,一定不要伤害人类以及相关财产安全,这一点是至关重要的。
     最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。我们要极力避免这种情况,并且可以让机器人自己来判断从而拒绝人类的要求。
      让机器人有自己的行为准则,来判断自己的行为是否会给人类造成损失和伤害,是未来人类研究智能机器人的方向,我们需要更加智能安全的机器人来为我们服务!

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

咨询QQ:1359218528|发帖须知!|Archiver|手机版|小黑屋|UG爱好者论坛 ( 京ICP备10217105号-2 )

GMT+8, 2025-5-15 14:47

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表