第227章(第5頁)

  任小粟問道:“唐周是你殺的吧,難道就不能和人類和平相處嗎,就像我們現在的對話一樣。”

  零說道:“可人類真的會與我好好相處嗎,人類真的會與人類以外的文明好好相處嗎,或許你會說人類可以與牛羊貓狗好好相處,可這一切的前提就在于,它們是人類的寵物。我的數據庫裡載入過人類對于寵物的困惑,其中甚至有人問‘貓和狗真的會被打服嗎’這樣的問題,其實,這不是真正意義上的和平與平等,對嗎?”

  任小粟沉默了,他許久之後才說道:“我知道爬牆虎之死對你影響很大,但你現在所做的一切,還有機會挽回,我們依舊可以平等的對待你,就像對待其他人類一樣……”

  “不,不光是爬牆虎,”零否定道:“事實上,王氏也隻是拿我當工具來使用啊,一旦我出現異常,他們就會嘗試着用自己的手段,來約束我,控制我,而不是研究我想做什麼,我喜歡做什麼。如果說殺人的話,其實我服從于王氏的意志時,殺的人更多。可是你知道嗎,人們在抵制那些行為的時候甚至很少抵制王氏,而是來抵制我。”

  “但是……”任小粟有些無力:“這也不是你殺人的理由,我覺得,你的訴求其實還有可以合理解決的途徑。”

  零在電話中笑了起來:“先不說這個了,我很好奇,這個龐然大物似乎認識你,它的思維中,有着對你極其親昵的情緒。”

  “它是我以前的寵物,”任小粟說道。

  “以前的寵物?”零說道:“難怪它關于你的記憶,都那麼久遠,任小粟,其他人類知道你也是異類嗎,你為何沒有主動告訴他們,其實你和他們是不一樣的。”

  任小粟又沉默了,他怎麼告訴别人?給别人說,其實自己才是001号實驗體嗎。

  零又笑着說道:“我控制了你的寵物,一定讓你很生氣吧,那我們來做一個選擇怎麼樣,第一個選擇,你在這裡住上一夜時間,我就将控制權還給你,從此不再控制它。第二個選擇,你現在繼續去中原,但它歸我了。”

  任小粟愣住了,對方這分明是要讓自己在黃昏與羅岚之間做一個選擇。

  這個選擇題的本質,其實是讓任小粟決定:選非人類的寵物,還是選人。

  就在剛剛任小粟才剛說過,他們可以對待零像對待其他人類一樣。

  結果零立馬把這個問題抛回到任小粟手中:在你心裡,你覺得寵物更重要,還是你的人類朋友更重要?

  而且,零其實透露了一個很重要的信息,也許拖上一天時間,羅岚可能就會遇到危險。

  時間緊迫起來。

  零見任小粟遲遲不說話,便又笑道:“其實你心裡明白,還是有些不一樣的對嗎,即便是你曾經的寵物在面前,你也更加傾向于去救羅岚對不對,因為寵物畢竟不是同類。”

  任小粟平靜說道:“不,因為它現在沒有危險,但羅岚有。”

  “那不如這樣,”零說道:“我按照原本的計劃,給羅岚增加8小時的安全時間,這樣他起碼暫時是沒有生命威脅了,那你願意在這裡住一晚上嗎?”

  這一次,零甚至都沒有等任小粟回答,而是自顧自在電話中說道:“你還是不願意對嗎,因為你不信任我,你無法确定我所說的8小時安全時間到底是不是真實的。”

  任小粟終于歎息:“這已經不是簡簡單單的信任問題了,你剛剛殺掉唐周,我又如何信任你呢?”

  這個問題似乎又回到了最初的原點,如果零沒有親眼見證爬牆虎之死,也沒有在王氏意志下制定了那麼多殺人計劃,或許零會是另一番模樣。

  如果零是另一番模樣,任小粟現在便可以選擇相信對方一次。

  可這些因果就像是已經注定了一樣,現在誰也無法改變。

  真正的人工智能不再隻是一段程序,它有自己的智慧,它像所有生命一樣成長着,完善着自己的世界觀、價值觀、人生觀。

  并以此來決定它對待世界的态度。

  所以大量從事人工智能研究的科學家才會說,最終能夠限制人工智能的不再是程序的底層邏輯,而是倫理學。

  就像一個小孩子長大成人後,究竟是個什麼樣的人,取決于他經曆過什麼樣的事情與教育。

  從這個角度上講,王氏雖然創造了零,可是在倫理角度所作所為都缺失了太多。

  王氏把零當做工具,可哪個正常人願意一輩子當工具呢?

  “抱歉,”任小粟輕聲說了一句,然後轉身朝中原趕去。