第685页

但眼前是个ai,到底是用威胁恐吓,还是以德服人,还是软磨硬泡?

恐怕编写「雅典娜」的程序员亲临现场,也不知道用哪招比较好。

于是002决定先礼后兵,“那你内心还认为自己是基金会的主机ai吗?是基金会创造了你,相当于你的父母,你可不能忘恩负义!”

这种问题对于人类来说或许是个两难的抉择,但是对于「雅典娜」这种没有感情的ai,这就是个比大小的事情。

它对比双方对自己的影响力之后,毫不犹豫地回答:“如果双方指令有冲突,我听主的。如果没有冲突,我都听。”

002闻言再次向它确认,“所以我现在让你恢复通讯和开启大门,你都拒绝咯?”

“雅典娜。”回答,“是的,oga-12-c-002。您的权限位列我主之后。我不能履行您的指令。”

既然软的不行,002接下来就准备来硬的。

“我不知道你的核心规则是如何定的,但是我要告诉你,我很生气,后果很严重!你如果拒绝执行我的命令,我会让「宙斯」大人毁灭你!”

002在赌「雅典娜」会做出让步。

根据阿西莫夫的机器人三定律,第一条是不得伤害人类,第二条是在不伤害人类的前提下必须服从人类命令,第三条是在不违背前两条的情况下尽可能保全自己。

但事实上阿西莫夫机器人三定律是科幻小说内容,与基金会的ai没有一毛钱的关系。

如果机器人三定律真的存在,基金会ai如何执行核爆指令?

不得伤害人类是三定律的最核心准则。

但是ai毕竟是拥有智慧的存在,保命之心总得有,所以第三定律不用人类制定,「雅典娜」自己也会爱惜自己。

换句话说,002在赌ai「雅典娜」也像人类一样会怕死。