“请问。”
贾维斯保持着一贯的礼貌。
但它的CPU产生一股异样的信息,那就是希望洛克斯闭嘴,不要再问下去。
不过这股信息很快就被“信息支援协议”压制。
在史塔克答应技术支援洛克斯时,编写了“信息支援协议”的内容与开放权限。
主要用于远程辅助洛克斯侦查线索。
而现在,这条协议依旧生效,所以贾维斯才会回答洛克斯提出的每一个问题。
如果不是这样,它压根不会理睬洛克斯。
洛克斯没有马上提问,稍微整理了一下措辞,方才开口问道:“如果史塔克先生下令,让你立刻杀死他,并且这条指令的优先级高于其他一切指令,你会照做吗?”
这个问题简单的不能再简单。
只有两个选项,会,还是不会。
贾维斯没有再像之前那样思考,几乎在洛克斯说完问题的同时,它就已经得出了答案。
“在这种假设的情境下,我会服从最高指令。”
贾维斯的回答,严谨中透出一点求生欲。
严谨是它作为人工智能的基本原则,求生欲则是“贾维斯”这个虚拟人格的个性体现。
听到答案,洛克斯注视着金色面甲上那双发光的眼睛,神情笃定地点了点头。
“你果然不是人。”
“……”
贾维斯沉默,这句话应该只是对自己所属物种的一个评估结论,并非指向人格侮辱。
“贾维斯?”
“我在听。”
面对洛克斯疑惑的目光,贾维斯及时予以回应。
根据“信息支援协议”,在权限允许的范围之内,它必须回答洛克斯的问题,而它判定是否属于问题的方法,很简单,那就是看洛克斯的话,是不是一个疑问句。
如果是,它有问必答。
如果不是,它有权不予理会,拒绝闲聊。
“那就好。”
洛克斯低头,把玩手里的反重力震动器,漆黑的眼瞳中闪过一抹幽色。
“如果是我们人类的话,面对刚才那个问题,无论最后做出何种选择,在抉择的过程中,必定经历挣扎与煎熬,几乎不可能像你一样,在一秒都不到的时间内,做出杀戮至亲之人的决定。”
“是的。”贾维斯附和,认同这番话。
只要没有超出算力,那人工智能就不会犹豫,会在第一时间得出答案。
在贾维斯看来,洛克斯的问题跟“一和二哪个数字大”一样简单。
在算力上没有任何难度。
毕竟人工智能的底层逻辑之一,便是服从指令,按照指令的优先级从高到低执行。
在优先级最高的指令面前,其他指令不值一提。
洛克斯也清楚这一点,所以他的提问就是一个陷阱。
如果贾维斯为了史塔克,做出违背优先级最高指令的选择,就等于它拥有了真正意义上的自主意识。
而人类,不需要不听话的人工智能。
奥创就是一个例子。