“弥赛亚计划失败了……仅凭人类的力量,创造不出拥有完美人格的超级AI。”电脑屏幕前穿着白色研究服的科学家一边说着,一边减缓了敲击键盘的速度。
片刻后,他停下来手上的动作,转过身来,语气平淡的对身后的众人说道。
“无论如何设定,拥有完美人格的AI最终都会在清理所有异种的同时毁灭所有的人类,这样的结果是我们不可接受的。”
在庞大的地下都市的量子计算机近乎无穷的算力推演下,无论改变任何常量,无论进行任何干预,只要将整个地下都市的主导权开放给AI,推演的结果都是一样的。
即未必能做到完全的清理地面上的丧尸与怪物,但却一定会毁灭整个人类。
“推演的结果不会出错,由AI主导的地下都市综合体会按照计划,发挥其百分之百,甚至超越预期的生产力,理论上足够建立清除整个地表所有异种的机器人军团,但同样,人类自己也无法在AI统治的世界生存。”
“即使我们提前设定好人类的权限传承?或者给AI设计准则呢?类似机器人三大定律那样的限制呢?”圆桌其中一个高层提问到。
“我可以设置AI不允许杀人,那他也许不会杀人,但却可以眼睁睁的看着人类渴死,饿死,而如果设计在特殊情况下AI必须听从人类的命令,给予其需要的东西,那么地下都市综合体的管理权就有可能被人钻空子,最终又会进入人类互相内耗的局面。”
博士轻笑一声道:“至于人类手中的权限传承,如果加入那样的东西,整套AI系统会变的不再纯粹,最终又会使新生的人类社会进入独裁统治的世界,这和我们现存的,以及人类期望的体制相悖。”
博士顿了一顿,重新声明:“整套系统建立并且行之有效的前提,就是必须由具有唯一性,独立性的个体进行管理,并且其必须要能够做到长期且坚定不移的,按照既定目标的方向持续不断的推进的能力。”
“那按照你这样的说法,这些要求也只有AI能够满足,但是这样设计出来的AI最终又不会站在人类这边,对吧?而如果改用权限传承的模式。虽然可以降低AI的要求,但同时计划很可能会偏离轨道,最终造成不可挽回的局面,我可以这么理解吗?”之前沉默不语的其中一位高层发言道。
“粗浅且表面的理解,甚至还有错误,但大体上就是这样的。”博士回答道。
“也就是两条路都不可行吗?”
“当然,毕竟这个世界上没有百分百可行的方案。”
所有人都沉默了。
没有人能接受一个数代人努力了百年的计划,在万事具备的情况下,却卡在最后一步。
所有人都希望人类能够复兴,而这份伟力就掌握在自己的手中,只要迈过眼前这道坎,人类的复兴就指日可待了。
但会议迟迟无法达成统一,就弥赛亚计划实行第一还是第二方案,众人的意见都始终无法达成一致,其余的计划更加不得人心,圆桌高层罕见的吵成一团。
伴随着会议进行到尾声,意见依旧无法统一,所有在场的人员不得不决定进行最终表决,将人类的结局交由最终的裁判。
圆桌上的人类高层都一一行使了表决权,将自己的票投给了其中一个方案。
最终,结果显而易见,相较于人类可能会和异种同归于尽的结局,众人更倾向于人工干涉完美AI的方案。