当前位置:看书品>玄幻奇幻>出星河> 第152章 人工智能三大定律
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

上一页 目录 +书签 下一章

第152章 人工智能三大定律(2 / 2)

1.机器人一定不能伤害人类,也不允许他见人类将受到伤害而袖手旁观。

2.机器人必须服从人类命令,除非人类的命令与第一条相违背。

3.机器人必须保护自身不受伤害,除非这与上述两条相违背。

其实这所谓的三大定律根本就是摆设,许多人工智能机器人,天生就是作为武器存在,武器的初衷就是伤害人类,所以这三条定律那是一条也无法真的被运用。

但是经过这个闪星球的教训,艾文觉得以后要为自己的机器人设定一条铁律。

机器人铁律:机器人必须服从人类命令,但禁止接受无边界条件的无限命令。

这条命令加入到艾文的机器人程序以后,所有程序命令都必须追加一条时间或者单位数量的限制。否则机器人会拒绝执行。虽然麻烦了一些,但就可以有效防止闪星这种事情发生。

比如说当初的格里高,他应该在下达命令的时候,加上一个时间限制,比如说1年,或者10年。即使不限定时间,也要限制机器人无限发展的数量上限,这样闪星的悲剧就不会发生了。

雨星使者邀请艾文去雨星球做客,被艾文拒绝了。虽然从所有信息综合来看,雨星人算是友善的文明,但是艾文还需要做一些准备。比如防护服,还有其他的安全保障技术。

等使者离开,艾文几人又聚在一起,对闪星的问题进行了讨论。

艾文想听听5号对失控的闪星机器人有什么想法。

5号则告诉艾文,如果要收拾闪星这个烂摊子,最好从解除命令这一条下手。如果硬碰硬,一旦人工智能提升了安全阈值,那或许会导致不可预估的后果。机器人文明一旦无限扩张产能,那将是非常恐怖的。到时候整个恒星系说不定都会机器泛滥。

从人性的方面去思考,雅楠提出了一个更恐怖的问题。如果有人像闪星发送假信息,比如虚构一只上千艘战舰的舰队即将攻击闪星。那闪星的人工智能会不会立即暴走,急剧扩张军备,甚至主动打出闪星,进行主动防御。

艾文皱着眉头道:“这并非没有可能,只不过没人敢去证实。后果估计没人承担的起。好在闪现机器人的军队虽然多,但是军事科技却仍停留在两百年前。这从上次的遭遇战就能看的出来。”

5号点头同意艾文的说法,他第二次提醒道:“千万不要小看它们,即使是科技不发达,但是有些时候,数量的变化,会抵消质量的优势。所以最好的方法依然是解除控制命令。”

上一页 目录 +书签 下一章

收藏本站( Ctrl+D )