第1098章 思维逻辑不等于自我意识(1 / 2)

“这几年,我先后用c100和c200制造出好几批样品机器人,并且一直在观察评估,确定没有任何问题,最终才在几个月前,把c300装进了雅薇的大脑。”

“目前来看,我的担忧应该是多余的,即使有了c系列的智能芯片,机器人也只是在模拟人类,并没有产生脱离于程序设定的自主意识,所以还是能够掌控的。”

“后来我仔细想了一下,思维逻辑并不等于自我意识,这是两个完全不同的概念,使用了c系列芯片的智能产品仅仅只拥有思维逻辑,并没有诞生出以自我为中心的独立意识。”

“所谓的‘思维逻辑’其实也是由开发者事先构建好的,就好比已被发现的公式和定律,c系列的智能芯片只不过是在合理的使用这些东西,用已有的公式和定律进行复杂运算和各种推导,而它不可能创造出新的公式和新的定律。”

“换而言之,除非程序出bug,否则它会始终服从主人的命令,不会违背一些基础设定。”

黎薇一本正经地说了一大堆,夜星宇逐字逐句地认真听完,途中想起自己曾对雅薇施展过赋灵神通,于是便不动声色地偷偷瞄了雅薇一眼。

此时的雅薇还算正常,没看出什么古怪,但她以前有过几次夸张举动,比如学着侯晓扮鬼脸什么的,感觉不像是一个机器人能做的事。

夜星宇不由怀疑:雅薇那家伙似乎有点不对劲,不会已经诞生出自我意识了吧?

他按耐住疑虑,向黎薇问道:“如何判断一个机器人有没有自我意识?”

“我刚才不是已经说了吗?你有没有认真听?”黎薇没好气地答道,“拥有自我意识的机器人会有自己的想法,无视三大定律的存在。”

她口中的“三大定律”,由上个世纪的科幻小说作家阿西莫夫最先提出,具体如下:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。

第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。

第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。

但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点:

第一,机器人不能伤害自己的主人。(非主人身份的其他人类不在此列)

第二,机器人必须服从主人的命令。(只限于主人,且不能违反第一条)

第三,机器人不但要保护好自己,更要保证主人的安全。(不能违反第一条和第二条)

对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。

如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。

试想一下,既然不能伤害人类,那么造出来的机器人拿去跟谁战斗?

所以,夜星宇现在知道了,关于雅薇有没有产生自我意识,就得看她是否违反新的三大定律。

夜星宇把黎薇的话牢牢记在心里,却不把雅薇的异常说出来,等以后有机会,他再好好地观察确认。

目前需要讨论的是,主要还是机器人教练,于是他便转回正题,向黎薇问道:“你的意思是,可以用c100智能芯片来批量制造机器人教练吧?”

“可以是可以,但我得提醒你,这种东西可是很贵的,比车子房子还要贵,真没多少人买得起!你想靠它发财?趁早还是醒醒吧!”

黎薇张口就是泼冷水,但她说的也是实话。

即便是一个只有外家古武者战斗力的智能机器人,其制造成本少说也要几百万,可能比一套最初级的动力机甲便宜一些,但也不可能让普通人家负担得起。

夜星宇想靠机器人教练来促进古武发展,这个思路或许有用,但又不是那么太有用。

智能机器人真的很贵,更何况还要满足战斗需要,又不是一台几万块的高级pc电脑,人人都能买得起。

夜星宇仔细想了想,最终说道:“你还是弄一弄吧,至少富人能用。实在不行还可以搞租赁共享,普通人也能体验一下。或者开几家另类武馆,用机器人当教练,想想应该挺有意思的。”

“行吧行吧,我没意见!”黎薇扭了扭脖子,搓了搓手,“反正也该把c系列的芯片推出问世,就当是提前打个广告吧!”

刚说完,她又想到什么,继续补充道:“不过有一点,如果用机器人当教练,必须要有一个庞大的数据库作为支撑,能教的东西才相对比较多。而我手里掌握的武学资源不够丰富,有相当一部分还是峨嵋派的不传之秘,不可能输入到数据库里面,所以要去搜集民间武校或者私人武馆的教学资料,这得花大量的时间。”