“看来,租用实验室这条路是行不通的。”林晨稍微琢磨了一下便不得不打消了租用这些实验室的想法,转而考虑起了别的方式。
“阿木,你把合成配制药剂要用到的设备和原材料,按照工序流程标注出来给我看看。”林晨接着再向阿木交待了一些注意事项,并让阿木把整个卢米斯塞尔斯大楼给整个监控了起来。
既然无法正大光明的租用这些实验室,那他就只好偷偷的使用了。眼下的情况,林晨实在没有多余的时间去等待,不得已之下才用了这种他心底一直不愿意使用的方法。
这倒不是说林晨有什么道德洁癖,只是觉得这种打破规则不按正常途径不告而取,不经物主同意就偷偷使用的行为。实在是不太光彩,有点突破了他做人的原则。
况且这样做很可能教坏如今智力尚处于幼儿期,各方面都正在飞速成长的阿木。
其实早在这之前。早在阿木最初刚刚诞生的那几天,林晨不是没想过利用阿木的能力,直接入侵美国的银行系统搞些资金来用,或者进入美国军方的系统安排一架军机执行下秘密任务什么的,直接把他送出美国国境去……
只是当时他一直顾虑着如此做的后果,很可能就此给阿木做出了一个可以随意破坏常规,打破基本道德底线的坏榜样。让阿木失掉应有的原则性。
对于如何教导规范,或者说如何给阿木树立正确的道德原则。一直是林晨颇为头痛的一件事情。
尽管阿木是人工智能,他的本质确实只是一段程序而已。
按照常理和逻辑性来说,只要在阿木的核心系统内加入一些限制性的条件,诸如世界闻名的“机器人三定律”之类的。就能从根本上限制阿木走向歧途的可能性。
可是机器人三定律本身就存在着巨大的漏洞!
所谓的“机器人三定律”,一是机器人不得伤害人,也不得见人受到伤害而袖手旁观;二是机器人应服从人的一切命令,但不得违反第一定律;三是机器人应保护自身的安全,但不得违反第一、第二定律。
后来又补充了机器人零定律:机器人不得伤害人类整体,或坐视人类整体受到伤害。
为什么后来要制定出这条“零定律”呢?
打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要对一些犯了重刑的罪犯进行“人道毁灭”。处以死刑。
这种情况下,机器人该不该阻止死刑的执行呢?
按照人类法律显然是不允许的,因为这样就破坏了我们建立起来的秩序。也就是伤害了人类的整体利益。
因此出现了新的机器人定律:第零法则机器人不得伤害人类整体,或坐视人类整体受到伤害;
原本的“机器人三定律”相应调整为:第一法则除非违背第零法则,机器人不得伤害人类,或坐视人类受到伤害;第二法则除非违背第零或第一法则,机器人必须服从人类的命令;第三法则在不违背第零至第二法则下,机器人必须保护自己。
三定律加上零定律。看来堪称完美,但是“人类的整体利益”这种混沌的概念。就连人类自己都搞不大明白,众说纷纭各有各的理解,更不要说那些用0和1来想问题的机器人了。
就如某位好莱坞明星曾说过的那样:“机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题!”
一个国家的法律有多少项条款?照样有无数人类在不断出错犯罪,能指望简单的几条定律就将人工智的思维逻辑给完美化吗?
而且阿木的核心系统本身就是意外诞生出来的,核心代码的复杂程度远超常人的想象,林晨也很难在保证不破坏核心系统原本状态的情况之下加入任何命令,或是添加限制条件。
要是因为加入命令而导致阿木出现异常,无法再像现在这样听话乖巧,对他言听计从的话,那他岂不是在自毁长城么?
所以林晨才一直没有去妄动阿木的核心程序,往里面添加什么劳什子的大定律去限制阿木的“思维”,而是尽量以身作则,用实际行动言传身教去引导阿木的成长,像教小孩子一样给阿木建立起一个正确的价值观和思维方式。
只是这个时候,林晨再也无法去顾忌这么多了。
他眼目下的窘迫处境,和他必需要做的一些事情,使他不得不暂时抛掉这些顾虑,让阿木发挥出最大的能力来帮助他做事,达成他想要的目标。
至于说阿木会不会因为他做的这些事情,采用的不太光彩的手段而走上一条歧路,朝着不可预知的方向发展成长,那就听能听天由命了。
毕竟现在对于林晨来说,保住他自己的小命,保护好他的家人亲友才是最重要的事情!
要是连他自己都没命了,那世界是否能够继续和平发展神马的又与他有多大的关系呢?
于是在内心中挣扎了一小会之后,林晨眼中的目光变得平静而坚定了许多,迈着平稳的步伐走出了厂房……(未完待续)R580