第(1/3)页 “疼!好疼好疼好疼!可恶!区区机器人你竟敢——竟敢!你知道弄伤人类是什么后果吗?快放手!疼——” 视线聚焦,我反扭着他的手臂。Ω笔趣Ω『阁Ww』W. biqUwU.Cc他背对着我跪在前方,整个人龇牙咧嘴。 “你、你放手!混账东西,你知道我是谁吗?你、你区区人工智能居然敢——今天要是敢伤我一根汗毛,我绝对让他们销毁你!让你马上就变废铜烂铁,我说到做到!” 他的威胁,在我听来毫无任何意义。 多用了几分力,就听见他陡然尖利的惨叫,以及手臂关节的咔咔作响。我知道的,再多旋转一点,他的手臂整个就要断掉了。 “呃,那个……停!停!住手,快住手!” 陈微的黑框眼镜早已不知所踪,领口也乱七八糟。四目相对之间,灰色的瞳中全是担心。 他多半不是在担心那个吊梢眼。 应该是在担心我一激动,真的会把吊梢眼的胳膊拧下来吧? …… 人工智能三大法则第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。 看起来简单的法则,其实却是非常复杂又自带矛盾的逻辑体系,导致了许许多多对我们机器人来说难以取舍的逻辑难题。 很多简单的情况,都会让我们陷入两难的权衡——就比如说,像刚才那种人类之间相互打斗的情况,身在一旁的机器人,到底应该怎么做? 如果不作为、不保护主人,涉嫌违反第一条“不可因为疏忽危险的存在而使人类受害”。可万一拉架时不慎弄伤了其他人类,哪怕只是最细小的擦伤,也同样涉嫌违反第一条的“不得危害人类”。 于是,根本没有正确的选项。 在这类情况下,人工智能也就只有依靠自身固有的逻辑,自行权衡出最“正确”的做法。不同级别、型号的机器人并没有被规定何谓1oo%的“正确”,因而面对同一的情况,做出的抉择也往往并不一致。 一般来说,越是高端的机体,越倾向于做出更为理智和自利的选择。 就像吊梢眼的那只genesis金大天使,不管自己的主人被打还是打别人,反正是认定了主人没有性命之忧,全程只在旁边淡定的袖手旁观。 而像我这种的低智商的东西,却为了不是自己主人的人冲了出来。 已经违法了,我很清楚。 以暴力手段压制人类,就算没有真的致伤,我也多半是不得好死的了。如果这样想的话,有一句话叫什么来着——破罐子破摔? 反正都这样了。说不定再凶一点,反而更赚? “疼!疼疼疼疼疼————” 吊梢眼的声音,已然变成了歇斯底里的惨嚎:“杀人啦!杀人了!这是怎么回事啊!呜……你、你的机器人太奇怪了!他疯了!程序错乱了!你快让他放手!快叫他放手啊!呜!他、他真的要杀人了!” 就连陈微,也似乎有点被我的过激行为给吓到了。 这让我有点难过。在我的注视下,他似乎这才终于反应了过来额角有什么东西一直往下在滴落,抬起手摸了摸。 看着满手的猩红,身子一晃。 “当心!” 我甩开吊梢眼向他冲了过去,那一瞬间险些再度断片。头脑是混乱的,情感系统更是不知道出了什么问题,整个人像是浸在没顶的水中一样狂躁而憋闷。 第(1/3)页