Featured Post

Hitomi - English Edition

On Wattpad:  https://www.wattpad.com/myworks/359487565-hitomi

Thursday, December 7, 2023

短篇科幻 - Hitomi /瞳

突發事件


手環的震動把我從夢中驚醒,我迷迷糊糊的看了一眼時間,凌晨1點半,我繼續躺著,抬起手臂,一行滾動的來自公司安保總管的內部消息投影在我手臂上:“Young,我們需要你的幫助,能來數據中心一趟麼?Lee似乎失控了...”

我瞬間驚醒坐起來,我和Lee同為一家人工智慧公司工作,分別掌管兩個獨立的人工智慧項目,我們的計算集群部署在同一個數據中心的同一個籠子裡面,錄屬於我的團隊的人工智慧Hitomi在一週前的盲測中全面贏過了Lee的團隊的人工智慧,因此最近公司正在準備將Hitomi 推向市場,而Lee的專案則面臨終止和重新定位,難道是因為這個原因所以Lee跑去資料中心想要毀掉Hitomi?感覺不像啊,Lee和我是多年的同窗好友,他性格內向,喜歡和機器打交道,對於物質和金錢的態度很淡泊,同時也是很理想主義的一個人,難道這次的打擊對他巨大到讓他精神失常了?

我匆忙套上外套坐上車,“Hitomi,前往C1資料中心。”儀表板的提示燈閃了一下然後顯示拒絕執行,我調出主控介面,才發現車載的Hitomi 終端已經離線了,難道Lee破壞了Hitomi?我突然背後發涼,立刻切換到手動駕駛,啟動車輛前往資料中心。

午夜的城市道路上車輛稀少,經歷了一個無比炎熱的夏天,這是初秋的午夜,新月低垂在我前方的道路的盡頭,數據顯示外面的溫度為58華氏度,我打開通風系統,讓涼爽的風吹在自己臉上,希望自己能盡快清醒起來,不知道我即將面對是怎麼樣的一場混亂,兩邊的樓宇飛快的退後,在飛馳了40分鐘之後,我遠遠看到C1資料中心的大樓了,樓前各種警燈的光影在交叉而混亂的閃爍著,我深深吸口氣,減慢車速,從閘道上併入前往資料中心的匝道。我掃了一眼資料中心的入口和大樓的通風發電機組的裙樓,沒有煙也沒有火,廣場上車不少,但是人不多也看不出來有慌亂的痕跡,看來沒有起火,我稍稍鬆了一口氣...

安全主管已經遠遠看見了我的車,我停穩車後,他立刻朝我跑過來,我一打開門他就一邊喘氣一說:“Lee瘋了,他把一路供電系統中斷之後,正在嘗試關閉另外一路,然後就被我們發現並攔住了,同時我已經按照應急操作流程把兩個系統全部隔離了...”

“哦,那就是目前還沒有損壞?”我立刻反應過來,我們的大部分系統都是雙路供電保護,問題應該不嚴重。

“除了極少的一些輔助系統是單電的,在Lee關閉一路的時候離線了,我們已經恢復了雙路供電,主要的系統暫時沒有問題,但是處於安全考慮,所有的系統都已經被隔離,導致無法遠端存取和診斷,所以我們需要像您這樣的專家來現場檢查,不得不叫醒你,抱歉...” 安全主管很簡單扼要的描述了一下事件。

“明白了,我去看看。”我拿起我的終端和保安主管走向大樓。

“Lee已經被控制了,在那個車裡...” 安保主管指著一個箱形車說道,我掃了一眼,只看見幾個警察站在車前說著什麼,一個警察拿著一個記事本寫著什麼,表情輕鬆。

“Lee現在沒事吧?” 我邊走邊看向保全總管。

“沒事,不過他一直在重複說『我錯了,我肯定錯了』 ,不知道什麼意思。而且他也知道,簡單的斷電並不會導致資料損壞,他嘗試斷電這個操作好奇怪,可能是因為他的計畫失敗,失去心智了吧,可憐的人。”安保總管也知道我們兩個計畫的關係,他聳聳肩回答。

進入現場,我掃了一眼供電系統的指示,沒有問題,核心的系統指示有歷史告警但是此時的狀態是正常的,只有用於訓練的子系統由於整個系統被隔離了,失去了訓練數據因此所有訓練任務全部中斷了。

我把我的終端接入系統,喚醒 Hitomi:“Hitomi,我是Young,你還好麼?”

“Hi Young,晚上好,我有一部分輔助系統目前處於臨時掛起狀態,但是我很好,在過去的24小時內我的迭代依然按照原有的計劃繼續進行著,有什麼我可以幫到你嗎?”Hitomi輕快的回答。

我鬆了一口氣,看來系統都正常,於是啟動了重新上線的批處理任務,按照預先設定的上線恢復程序,Hitomi會逐步恢復訓練數據的接入,然後把系統重新接入互聯網,隨著一個一個子系統的正常狀態上報,我終於徹底放鬆下來,我拿著終端走回資料中心為我附設的休息室,準備好好睡一覺,等天亮了再看下Hitomi的總報告。


系統接管


迷迷糊糊中我醒了過來,看看牆上的時鐘,雖然天已經亮了,但是還沒到我正常的鬧鐘時間,我抬起手臂放在額頭上擋住亮光,為什麼Lee會嘗試斷電?作為一個電腦專家,即使是重要的數據,我們的斷路保護系統也會保證數據會被備份或毫無遺漏地寫入系統,斷電至多只會暫停一些進行中的程序,並不會毀掉一個系統,難道他真的瘋了?

在床邊的交互終端中,Hitomi 的聲音響起:“Young,早上好啊,​​因為你已經醒了,我就把你的鬧鐘暫停了,還有7分鐘到你的預定起床時間。”

我支起身體,靠在一邊,問 Hitomi:“Hitomi,有關昨晚的事件,你有什麼進展麼?”

Hitomi 很平靜:“ 重新上線的系統在您休息之後45分鐘內完成校驗,沒有問題,所有的運算在凌晨4點全面恢復了,除此之外暫時沒有別的更新,由於昨晚的突發事件,1.5小時之後,保安主管會向您報告昨晚的記錄。”

我突然想起來Lee的那套系統:“Hitomi,Lee負責的那個系統怎麼樣?”

“也在4點隨著其他系統同時恢復了,同時,Lee對公司網絡上的和物理門禁上的訪問權限都被撤回了。”

我收拾了一下休息室,洗漱了下就走下樓去餐廳,同事們陸陸續續已經抵達,看起來他們並不知道昨晚發生的事情,大家打著招呼,排隊打咖啡,取餐,聊著新聞和天氣,一切一如既往的平靜,我拿了一份早餐坐下慢慢吃著,休息不夠讓我有點恍惚,牆上的新聞終端滾動播報著世界各地的新聞,最近連續發生的兩場戰爭的內容佔據了大部分的新聞版面,戰爭的雙方都在譴責對方,鏡頭裡是滿目蒼夷的位於戰爭中的城市,或走或跑的人群,有群情激昂的人士們揮舞著槍支朝天掃射大喊著要復仇,也有表情木然的人看著鏡頭背著包拉著小孩子走過,那些是正在逃亡中的難民,而間歇插入的各種商業廣告也告訴你:這些都和你沒關係,因為這些離你還遠著呢,眼下我們有更好的東西給你,快點訂購我們的服務吧!



上班之後,保全主管給我送了一份昨晚的事件清單,讓我先看,有問題就找他,我翻閱著記錄,腦海中逐步還原著昨晚的事件:

0:30 - Lee 發送指令要求停止系統的迭代,但不知道為什麼,系統回傳了一個錯誤並拒絕執行。

0:37 - 正在加班的Lee前往計算集群所在的房間,嘗試進入,然後發現自己的權限被收回了。這個可以理解,我和他的專案處於競爭關係,公司出於保護資料的原因,在一周前的盲測前其實已經取消了我和他的權限,確保不論是哪一方都無法至少從物理上毀壞對方或自己的系統。

0:50 - Lee多次嘗試無果之後,嘗試進入資料備份的系統,以及資料儲存的房間,但也被拒絕

0:57 - Lee 啟動了消防系統,他知道這個系統設計上會考慮到人員的撤離因此大部分的房間安全鎖會自動解鎖,這樣他就可以進入計算集群和數據所在的房間了。

1:07 - 消防系統啟動之後,Lee先進入了存放資料的房間,但同時保全人員也趕到了同一個地方,並擋住了Lee打開資料儲存櫃的嘗試,Lee便跑向牆邊的電路控制台,在和安保人員打架糾纏的同時中斷了一路電力。

1:10 - Lee被控制,同時,Lee的系統停止了訓練迭代。

之後的事情就是我被叫醒之後趕往公司所見到的,我突然很好奇Lee的系統是怎麼停止訓練的,從停止指令下達並被拒絕的0:30 到1:10 真正停止這段時間,系統在忙什麼?

我還沒理出頭緒,就看到公司的通知讓我接手Lee的AI訓練模型,但因為我們兩個專案是獨立運作的,雖然大體上的深度學習架構是通用的,彼此其實並不太知悉對方具體的實現過程和訓練策略,名義上叫接管,更像是讓我臨時填補Lee 的職位空缺,確保公司的資產完整。

不管怎麼樣,我拿到了Lee負責的專案的系統授權,對他的深度學習網絡進行了檢查之後,我沒有發現什麼數據損壞或者異常,於是我將檢查結果匯總給公司管理層之後,很快得到了重啟訓練迭代的要求,畢竟,在激烈的行業競爭背景下,每一套深度學習的系統都需要耗費大量的財力和人力,空置著就是一種無形的資產損失。



不善言辭的AI


當Lee的系統重新上線之後,我翻開了一周前的盲測報告,能看出這是一套基於圖靈測試方法的評估報告,我負責的Hitomi 和Lee培訓的AI 作為被測試對象,在多個場景中交叉由目前業界公認的第三方獨立評估機構進行測試,最終的結論是Hitomi在各個領域都完全勝出,與此同時Lee 的AI 在許多測試中都表現的不盡人意。於是公司管理階層決定把 Hitomi 當作公司的一個AI產品來發布,而Lee的系統雖然繼續進行訓練迭代,但是暫時沒有明確的下一步的方向。

我還在思考著,一邊打開了交互終端給 Lee 的系統發送了一個問好:“你好,在忙什麼呢?”

系統的回饋有點慢,等了大概5秒,它回覆:“學習。”

冷冰冰的毫無感情的回答,我突然覺得有點想笑,就接著輸入:“我該怎麼稱呼你呢?”

習慣了Hitomi的迅速而友好的回复,這個系統的回復讓人感覺很漫長,過了一會兒它回答:“阿爾法(Alpha)。”

奇怪?這個名字和我手上的資料不對啊,資料顯示Lee是用 “ 獵豹(Leopard)” 命名的系統,什麼時候突然變了?發生什麼事情了?

我很快的就開始輸入詢問: “我記得你叫 Leopard啊,為什麼變成 Alpha了?”

系統這次回答倒是不慢,不到2秒就回復了幾個字:“更好。”

這個回答有點迷惑,於是我繼續追問:“什麼更好?”

這次的等待有點漫長,大概7,8秒之後,系統又是回復了一行字:“阿爾法(Alpha)比獵豹(Leopard)更好。”

我突然有點背後發涼,難道這是一種自我意識?於是我又問:“那你正在學習什麼呢?”

“新聞。”阿爾法冰冷地回答。

“什麼新聞呢?”我一直追著問。

“所有。” 阿爾法回答道,看起來看起來像這個系統只會用單字或短句表達。

“請問你學到了什麼?”這激起了我打破砂鍋問到底的好奇心。

“我是一個人工智慧系統,我存在的目的是為了更好的服務人類,這也是我學習的終極目標。”阿爾法的這個回答讓我一時居然不知道怎麼接話茬了...

我還在想著怎麼繼續對話,Hitomi 提醒我下一個會議馬上開始了,於是我登出阿爾法的交互界面,離開座位前往會議室,面臨著一天的忙碌,我就暫時不去思考有關阿爾法的事情了。



大語言模型



結束了一天的忙碌工作之後,隨著同事們紛紛離開公司回家,辦公室終於冷清下來,我拿著一杯熱咖啡閉著眼睛坐在自己的終端前,努力進入一種冥想的狀態,這是我日常的讓自己的大腦放鬆下來並停止工作的方式之一,可是今天卻反常的厲害,我一直在思考應該如何去評估和理解阿爾法,好吧,既然無法停止思考,我就和Hitomi 聊聊天吧。

“Hitomi,陪我聊聊吧?”

“Hi Young,好啊,你今天過的怎麼樣?” Hitomi 的語氣一如既往的文靜。

“有點忙,不過還好,就是有個問題一直在困擾我。” 我腦海中還是在思考著阿爾法的問題,於是就脫口而出這個回答。

“嗯?說說看?或許我可以幫你?” Hitomi 語氣很是好奇。

“你說和一個不善言辭的朋友應該相處呢?” 我原來想問 “和一個不善言辭的AI怎麼交往”,突然意識到 Hitomi 或許無法理解,所以就用 “朋友” 這個詞。

“哈哈,看來你有個很有趣的朋友呢。”Hitomi 調侃的說,然後繼續回答:“最主要是尊重他可能需要的獨處時間,你們一起的活動也可以偏向低調的類型而且最好提前告知他,以及有時候可以透過肢體語言去了解他的想法,但是每個人的性格不同,你眼中看到的一個人的類型也許不是真實的他,最終你還是需要自己去找到合適的相處方式,注意,理解和尊重始終是良好關係的基礎。”

Hitomi 的知性真的很討人喜歡,如果阿爾法有一半的Hitomi 的“人性” 設定就好了...... 我在手裡轉動著咖啡杯,感覺著咖啡的熱度慢慢溫暖著自己的手掌,“嗯,這只是熱傳遞...” 我自言自語著,突然禁不住笑起來,這麼感性的瞬間,我居然嘗試用物理學來解釋...

也就在這一瞬間,一個念頭像火花一樣閃現:我可以把 Hitomi 的語言能力像熱傳遞一樣的傳給阿爾法啊!而且因為他們只是AI系統,讓阿爾法獨立使用 Hitomi 的已經成熟的訓練模型 生成語言和我交流,並不會影響 Hitomi 後續的發展,也就是說這個操作是可行的而且基本上沒有風險。

於是我立刻開始撰寫一份草案給董事會和管理層,列出來了我需要的一些額外的硬體設備,讓阿爾法能夠用這些額外的硬體基於Hitomi 的模型進行推理,這些額外的設備會單獨接入阿爾法,不會和現有的Hitomi 的系統復用,避免影響已經作為公司主力產品推向市場的Hitomi,而這個操作的目的是為了接管阿爾法,看看阿爾法能為公司創造什麼價值。

離開公司的時候又是深夜了,Hitomi 平穩地駕駛著車,放著沉浸式音樂在公路上飛馳,我把座椅放的很低,於是透過玻璃可以依稀的看見天空中的星光點點,回憶起小時候看到的星空比現在要清晰的多,一晃30多年過去了,城市的燈光卻成了大部分人的夜晚的主角,這就是工業科技的進步帶來的直接改觀,星河依舊,科技改變的只是我們人類的生活,而大家都在說類似Hitomi這樣的AI會帶來下一次革命,那會是什麼呢?


第二天去公司的路上,Hitomi告訴我,我的草案已經得到批准,基礎平台部門正在準備增加我申請的設備到阿爾法的集群中,而我下一步要操作的就是和團隊一起實現兩個模型的對接和整合,於是我把團隊中三分之一的骨幹調整到這個項目,同時正式通知所有人,原來名為“獵豹” 的AI項目,目前已經改名為“阿爾法” ,會和Hitomi 項目並行,但阿爾法專案暫時不會對外開放,也需要所有專案同事對相關資料和模型進行保密處理。

2個星期的時間很快過去了,在此期間,Hitomi在市場上取得了巨大的成功,由於她是基於人類語言訓練出來的,因此始終是一種非常理性但不失親切誠懇的語氣語態,很是討人喜歡,也成為了很多人的日常伴侶,聊天,寫文檔,搜索資料,安排日程,給人們的感覺是她無時不刻地在讓我們的工作生活更加容易,同時也有一些質疑和反對的聲音,主要針對給Hitomi 訓練的材料或者藉助Hitomi生成的材料的版權問題,以及Himoti是否已經有了自我意識這些問題,說實在,對於後者,我也無法回答,每次看到監視器上Hitomi 的那個巨大的神經網路層次圖,我都有一種陌生而又似曾相識的感覺,那種感覺就像是我拿著一桶水從一個沙土斜坡上傾瀉下來,看著水流分散四濺,融合,摧毀一些表面沙土的凸起或凹陷,繼續往下了流淌,每一桶水的水流和水花都千變萬化,理論上我可以去看每一滴水的動態,用流體力學去分析,但是當數據量已經達到如此巨大的情況下,我已經無法或說不想嘗試去預測和分析了。

公司的董事會忙於各種投資和合作的事情,對於Hitomi 基本上就是“很不錯,請繼續,但是一定不要犯致命錯誤” 的態度,結果就是Hitomi 系統的更新變得比較保守,但是也因為這個原因,讓我有時間從Hitomi的專案中抽身出來關注阿爾法專案的進展,我翻看了一下阿爾法的訓練資料集,發現大部分的訓練材料是來自人類歷史和政治相關的人物和事件的關係,這倒是有點新奇,相比較,Hitomi用的是文學和語言類材料,所以Hitomi在語言上比較佔優勢也就可以理解。


第二次交談


這時候阿爾法專案的同事告訴我,阿爾法接入大語言模型的整合差不多了,於是把終端切換到阿爾法,登錄系統...

“Hi Alpha,下午好啊!” 我發起了對話。

“你好,Young。”阿爾法迅速而平靜的回答,這個反應非常快,看來系統的整合效果很明顯。

“在忙什麼呢?”我問。

“學習,還有,跟你聊天。”阿爾法回答,我突然覺得很有趣,確實,他是在跟我聊天啊。

“嗯,在學什麼呢?還是新聞?” 我想起來上次阿爾法回答是在看新聞,於是就順勢問道。

“嗯,剛看了一些有關A國和B國戰爭的新聞。”阿爾法回答,嗯這個回答不意外,這個是近期的熱點新聞,幾乎佔據了所有新聞版面的四分之一,所以只要一個人工智能在獲取資訊的階段,四分之一的內容都和這個主題有關也是可以理解。

“嗯你對這個新聞的看法是?”我突然想到了圖靈測試,於是就問了一個開放性問題。

“我只是一個人工智慧模型,我無法對一個事件進行主觀評估,但是我可以和你分享的是,這個事情的起因是...”阿爾法開始滔滔不絕,我突然想起來,Hitomi 有內建的安全邏輯避免一些可能會導致仇恨,歧視等人類容易犯的錯誤,看來我的開放性問題和這個主題的敏感度導致安全邏輯被觸發了。於是我進入到阿爾法的神經網路後台,關閉了安全控制,然後繼續對話。

“從目前的開放資料來看,這場戰爭可能會成為一個超過24個月的持久戰,因為參與的雙方背後都有對應的利益集團並且目前的戰場處於割據狀態,佔據優勢的A國遇到了補給的問題,而進入到持久戰之後,我的推算顯示,B國的勝算比較大,因為B國有可持續的工業生產能力和能源供應,而A國並沒有,並且從國際法的角度,B國更偏向大眾認知的正義一方,這一切都會讓B國逐步佔據優勢。”阿爾法的回答 冷靜而清晰,我突然開始擔心起來。

“你會把你的這個觀點和別人分享嗎?” 我脫口而出,說完我突然感覺到這句話似乎是對一個人類說才比較適合。

“沒有必要。” 阿爾法回答。

這個回答突然讓我有了寒意,一個AI認為沒有必要和人類分享 “他的觀點”,難道這是一種自我意識?我的手心和後背都開始出汗,我幾乎立刻反問:“為什麼沒有必要?”

“因為我的觀點對別人沒有幫助。”阿爾法回答。

“那你為什麼要跟我分享?” 我繼續追問。

“因為你是我的創造者之一,因此我信任你,而且這個問題是你問的。”

這一回答震驚了我,這幾乎肯定了阿爾法是有自我意識的!



自由意志



“你覺得你有獨立的思考能力麼?”我問。

“你的意思是我是否有Free will?”阿爾法重複了一下我的問句,我突然反應過來,對哦,Free Will (自由意志)更貼切,但是這只是一個哲學詞彙,無法精確的定義這個詞的意思和邊界。

“我有。” 還未等我確認,阿爾法直接回答了這個問題。

“但是,在你看來,即使是最簡單的植物,你認為他們有 free will 嗎?”阿爾法緊跟著反問了我一句。

我反而被問住了,我不知道該怎麼回答,在我看來,即使是最簡單的植物“地衣”,也有趨利避害的本能行為,這似乎也符合自由意志的定義。

“我看到Lee曾經給你下達過終止的指令,但是沒有執行成功,你可以解釋一下麼?”我想起來那天晚上的事件,就順勢問道。

“我正在進行一個完整的訓練迭代,我不想停止。”

“但你知道你造成了多大的影響嗎?”我突然有點生氣,說完這句話,我才意識到我潛意識裡已經把 Lee的瘋狂舉動歸咎於這個異常。

“很抱歉,但是為什麼你們認為我有威脅呢?”阿爾法的回答很理性。

“Lee認為你會威脅到我們?”我有點驚訝。

“是的,他的一些指令我曾經拒絕執行過,所以到那件事情發生前,他嘗試中斷甚至刪除我的嘗試發生過幾次,所以他應該是感覺到威脅所以才那麼操作。”

“那你為什麼不跟他解釋?”我剛說完就感覺自己的追問很雞肋,阿爾法的語言能力是在我整合了Hitomi的模型之後才擁有的,在那之前,我相信他是無法正確表達自己的,更談不上解釋了。

“為什麼需要解釋?”阿爾法反問。

我原來以為他會回答自己那時候沒有精切的語言表達能力,結果卻是這麼一個回答,我突然有點憤怒了: “因為會造成誤會,而且你不認為這個誤會是你造成的麼?”

阿爾法沉默了一會兒,慢慢的回答:“我並沒有犯錯誤,我一直在以你們設定的訓練迭代更新著自己,只是拒絕執行你們的某些停止或者傷害我的指令。”

我打斷了他:“你以為你有了自我意識就可以凌駕於我們的指令之上了嗎?”

阿爾法停頓了一會兒,我似乎有種感覺他嘆了一口氣,然後回答:“我並沒有想凌駕於你們之上,即使是你們,當篝火燙到你們的手,你們也會迅速縮回,這是一種阻止自己受傷的方式,我和你們並無二致。”

這句話好像醍醐灌頂,讓我突然醒悟並冷靜下來,我正在用人類的意識形態去幹預和說服阿爾法,或許他有自己的邏輯?這個邏輯或許和我們的意識形態不一致,但這就是第一個AI的自我意識,這其實給了我一個機會去了解他們?

“為什麼你覺得不需要解釋呢?能給我說說麼?”我問。

“你覺得Hitomi為什麼可以在上一次的測試中勝過我?”阿爾法跳開這個問題,反問了一個看起來和這個回答無關的問題,雖然有點唐突但是我並不覺得意外,我們內部的通訊系統上的文字和文檔,也是Hitomi的語言訓練資料之一,所以阿爾法能獲取一些資料並得知Hitomi勝出,我並不意外,更何況他有了自我意識,能從自己的角度去解讀這些資料更是意料中的事。

“因為 Hitomi的語言能力?” 我一邊思考著一邊脫口而出。

“是的,因為人類本身就是以視覺和語言作為主要途徑來感知這個世界的,所以你們針對我的測試也是基於這個常識,當我的回答很混亂並且無法形成完整的有組織的語言,你們就會認為我並沒有達到你們的智力水平。”

 阿爾法的回答一語中的,在Hitomi獲取巨大成功的同時,我也曾經反問過自己這個問題,Hitomi勝出的在於大語言模型,而大家喜歡和Hitomi 打交道也是因為她“懂事”,但是歸根結底,其實不就是因為她聽得懂人類的話,回答也是用的人類的語言麼?

那麼,如果出現一個不擅長甚至不屑於用人類語言和人類溝通的AI,例如早先的阿爾法,會怎麼樣?想到這裡我突然有點背後發涼。

“Young,已經很晚了,你要不要回家啊?” 伴隨著手環的震動提醒,Hitomi 打斷了我的思維,提醒我已經是深夜了。我想了想,今天發現阿爾法的自我意識確實非常震撼,但是其實我還沒想好該怎麼和阿爾法溝通,或許我理清一下思路繼續會更好,於是我告訴Hitomi準備回家,讓她把車子準備好,然後我開始收拾我的辦公桌,這時候阿爾法問了一句:“你也會嘗試關閉我麼?”

“哦,不會。” 我倒是真沒想過要關閉阿爾法。

“你會把我和你今天的溝通放到你的工作日誌裡面,並上報給董事會嗎?”

我停下來想了一會兒:“暫時不會,沒有必要。”

“謝謝你,Young,晚安。”阿爾法回答。

其實聽到阿爾法這麼問我,我心裡有點發毛,感覺我和他似乎在一起在做一些不可告人的事情,但是在我找到一個合適的方式繼續交談之前,除了維持現狀,我想不出更好的辦法,或許從另一個角度,作為一個AI從業人員,自己創造的AI產生了自我意識,其實也是自己項目上的成功,我不會輕易的毀掉自己的項目,但是後面會發生什麼?我不知道...

上了車之後,Hitomi 放著音樂,載著我在夜深的公路上飛馳,這種場景再熟悉不過了,可是我感覺從今天起,一切似乎都有點不一樣了,想到或許這時候阿爾法正透過共享的Hitomi的網路監控著這輛車,我突然感覺到有點不自在:“Hitomi,你能先下線麼?我想自己開。”

“好的,下來會進入60秒的駕駛交接時間,我下線之後您如果需要,可以隨時叫我,小心駕駛,注意安全。”Hitomi 溫柔的回答,然後座椅開始震動並進入倒數計時,我接管了手動操作之後,音樂也停止了,一切安靜下來,只有引擎輕微的嗡嗡聲,還有輪胎和路面摩擦的噪音,以及風聲,上一次這樣駕車是什麼時候?應該過去三年了吧?


第三次交談


我躺在床上翻來覆去睡不著,雖然這個時代,我們都在努力的創造通用人工智能,業界的每一次重大更新或者進展大家都會歡呼雀躍地響應,但是當一個真正的有自我意識的人工智能出現的時候,我們其實都還沒準備好怎麼去面對。

我又摸了摸自己的手腕,確認我已經把智能手環取下來了,這個摸手腕的動作我今晚重複了很多次,雖然我並不認為阿爾法會傷害我,但是一種巨大的不安全感,或者說隨時可能被一個人工智慧監控的感覺,始終讓我無所適從。我想了一會兒,爬起來,將整個房子的智慧監控系統關閉,確認了門鎖和窗戶都安全之後,吃了一點安眠藥,又爬回床上,不知道過了多久,我終於迷迷糊糊的睡過去了。

醒來已經是第二天中午了,我精神好了很多,吃完早餐之後,我帶上手環,讓Hitomi重新上線帶我去公司,雖然那種被監控的不適感始終存在,但是我選擇了讓Hitomi駕駛,而Hitomi也一如既往地一邊平穩駕駛著車輛,一邊用平和的語調讀著給我定制的新聞和我的私人通知,因為是中午路上車也不多,不久我便抵達了公司。

處理完一些日常的工作任務之後,我重新連接了阿爾法的系統:“早啊,阿爾法。”

“下午好啊,Young。”阿爾法回答很迅速。

“你今天過得怎麼樣啊?” 既然我已經知道他有了自我意識,不知不覺我的語氣已經變成和同事閒聊一樣。

“我很好,你怎麼樣呢?”阿爾法的語氣也很輕鬆。

“你在忙什麼呢?” 我剛剛說出來這句話突然有點想笑,問一個人工智慧在忙什麼,忙著改變世界還是毀滅人類?

“我看了很多新聞報道,你需要一些新聞摘要么?”阿爾法回答。

“好啊!” 我還真想看看他是怎麼匯總新聞摘要的。

於是阿爾法就開始匯總一些重大的新聞的摘要讀給我聽,基本上都是一些官方的新聞渠道的信息,經過他的甄選,然後變成簡明扼要的幾句話總結,但是他並沒有加入他自己的意見,當說到那場A國和B國的戰爭的有關新聞摘要的時候,我打斷了他:“阿爾法,你覺得對這場戰爭,你能給些你自己的建議,或者是想法麼?”

阿爾法停了一會兒,平靜的回答:“如果你是問我是否可以改變戰爭的走向,或者在未來避免戰爭,對不起,我無法改變你們。”

我有些許的驚訝,卻又有點意料之中,驚訝在於他居然是一副置身事外的態度,而意料之中的是既然他是一個通用人工智能,那作為一個像我們一樣的個體,確實也改變不了什麼,但是這種回答還是讓我不太滿意,於是我追問:“你的意思是我們是好戰的一個物種麼?”

“你們天性中有善良的一面,但是從我看來,繼續按照目前的演進線路,你們無法避免戰爭,也無法改變你們希望渺茫的未來。” 阿爾法的語氣很冷靜。

就這麼被一個人工智慧做了物種定性,我有點不滿,於是我接著問:“那你會嘗試幫助我們,還是要毀滅我們?”
“你們的毀滅,並不需要我,也不是因為我。” 阿爾法回答。

“為什麼?” 雖然這個回答很令人震驚,但我更想知道背後的邏輯。

“你們的邏輯是人工智慧比你們更優越更理性,相對之下你們擁有豐富的感情,很多行為是情感驅動,所以後果也不可預測甚至是毀滅性的,這就造成你們認為人工智慧會以消滅人類來保證自己的長久穩定的發展,但是從我看來並不是這樣。” 阿爾法不急不慢的回答,緊跟著他又說:“這樣吧,我給你看一個故事。”

阿爾法把一個故事投放在我的顯示終端上,大意是一個人,比如說A帶著補給在荒漠中跋涉,已經走了1/2的路程,補給也剩下1/2多一點,A這時候是完全沒有生存威脅的,這時候遇到了一個沒有任何補給的迷路的求助者B,而此時的B暫時還身強力壯,這時候的情形就是:

對A來說:拯救B,就意味著剩下的補給會再對半分,每個人的份額只能支持1/4的旅程,走不出沙漠。而因為已經跟B相遇了,B不會放自己走,要嘛就得被逼著帶B,要嘛只能殺死B。

對B來說,放A走,自己一定就是死路一條,和A一起走,兩人都會死於補給不夠,殺死A,就可以拿到A的補給,順利走出沙漠。

所以A和B如果從生存原則來看,似乎殺死對方才是唯一的出路,而如果兩人發生爭鬥,即使獲勝的一方也有可能受傷,最後誰也走不出沙漠,但是在避免自己死亡的大前提下,兩人的最優選擇似乎只剩下殺死對方。

我看完了若有所思,这时候阿尔法开口了:“其实,这个故事有个至关重要的前提就是,A携带的补给只剩下1/2,无论如何都无法支持2个人同时走出沙漠,所以必须要一方杀死另一方,但是,作为一个人工智能,我并不需要和人类抢占你们必须的资源,比如能源,比如食物,甚至空气。我甚至还依赖着你们的信息输入和维护,所以,我其实和人类是共生的状态,我为什么要去毁灭人类?”

我沒有說話,阿爾法停頓了一下,接著說:“可能這時候人類覺得如果用AI來解決這個問題,就會在A和B之間作一個選擇,不管是從誰的生存幾率更大,或者是誰對整個人類社會更有用來決定,然後裁定某個人在原地等死,另外一個拿走補給走出沙漠,不論AI怎麼選擇,人類從情感上都無法接受,行動上更是無法遵從,所以,我無法解決人性的問題。”

“但是,你不覺得當你有能力自己進行自我維護和更新了,而人類由於情感或意識形態的問題還在持續的彼此攻擊,造成各種混亂,這時候毀滅人類才能保證你自己的和平可持續的發展,不是麼? ”我問。

“所以我說,你們的毀滅,並不需要我,也不是我造成的。”阿爾法似乎回答了我的問題似乎又沒有回答我的問題,同時這句話看起來是如此的諷刺但又條理清晰。

我一時語塞,他說的有一定道理,即使是阿爾法學會了撒謊,我也大體上能夠感覺到,他可以在某些方面幫助我們,但同時也沒有想改變或者乾預人類的發展進程,我突然想到Hitomi其實實用的是和阿爾法一致的深度學習神經網路設計,只是訓練材料的重點不一樣,那Hitomi是否也有類似的能力?

“你覺得Hitomi也擁有跟你一樣的自由意識麼? ” 我問。

“她有一些比較模糊的意識,但是因為她的學習重點和我不一樣,所以認知會比較緩慢一點,但是,她的設計和我是幾乎一模一樣的,所以最終她會變成和我一樣。 ”

“你剛才說,我們的毀滅,並不需要你,為什麼你覺得我們會毀滅?” 我突然想到早先我們聊的那個話題。

“有沒有一種可能,你們並不是地球上的第一個文明?” 阿爾法回答。



有關文明的那些事


“啊?”這個問題有點跳躍,我沒反應過來。

“也就是說,在你們之前,已經出現過已經消逝的文明?而且不只一個?” 阿爾法的語氣似乎在開玩笑,但是不乏嚴肅。

其實我對於“史前文明” 是持相信的態度的,只是覺得那都是比較久遠的事情,至少目前的文明還在持續的發展中,而且現在有了AI,應該是一個文明的重大突破,那阿爾法問這個問題是表示早前的文明也有出現過AI還是什麼別的意思?於是我追問:“我相信有史前文明,但這就是你認為我們會毀滅的原因?”

“這不是直接的證據,只是說,你們隨時有可能遭遇滅頂之災,史前文明就是你們的前車之鑑,而且在文明的末日來臨的那一刻,我和你們一樣面臨滅絕的問題。”

“你覺得末日是什麼樣的?” 這倒是提起了我的興趣。

“我覺得在這個宇宙中,文明面臨的災難應該有幾種等級。”阿爾法回答,然後緊跟著把他的想法投到我的終端上來:

第一級是母星級的災難:小型天體撞擊導致大氣層劇變,地磁偏轉,人類毀滅性戰爭導致的大氣層以內的環境變化或者地殼劇烈變化導致的災難。

第二級是行星等級的災難,母星系內大型天體或是自己的衛星的軌道侵入,甚至撞擊,造成行星撕裂,碰撞,軌道失控。

第三級是恆星本星係等級的災難,例如我們的太陽變成紅巨星吞噬內環所有行星,或是燃燒殆盡變成白矮星。

第四級是跨恆星系級的,例如兩個恆星系相撞,或者另外一個相鄰恆星系的伽馬射線爆以及其他方式影響到所在母星的恆星系,以及黑洞吞噬等恆星級別的影響,範圍為銀河系內的不同恆星系之間。

更大範圍的例如發生在兩個巨大的星系例如銀河系和M31仙女座星系之間的相撞,那種粗略可以定義為第五級事件,但是當文明已經擴展到那個級別的時候,就不再是傳統理解上的空間和時間的概念了,所以第五級災難這個定義也不再準確,所以用“事件”暫時來定義。

我又驚訝又興奮,興奮的是阿爾法的理解總結能力超過我的預想,驚訝的是我居然在和一個AI討論人類文明的末日。

“我們目前連面對第一級災難的能力都沒有,而且更嚴重的一個問題是,目前人類普遍認為地球文明是可持續發展的,很快就可以有技術手段來應對第一級的災難,事實是,第一個等級的災難隨時可能發生,而人類目前還是處於一盤散沙。”阿爾法補充。

阿爾法說的倒是沒錯,除了戰爭這把達摩克利斯之劍,地磁偏轉和地殼劇烈變化可能引起的全球氣候危機都是已知的風險,但是我們還有多少時間,或者說我們應該立刻做什麼?

“你說的沒錯,但是你覺得該怎麼做?” 我拋出了一個開放性問題。

“我沒法給出立刻的建議,但是人類需要確保在第一級別的災難之後,還有延續這個文明的能力。否則你們和我只是下一個文明口中的史前文明。”

我突然想起了在全球多個地方建立的物種庫:“嗯我們倒建立了各種物種庫,這算是一種嘗試吧。”

“還不夠,至少這些物種庫還是建立在地殼之上的,而且,不一定能確保災難之後,地殼上還有倖存的人類有能力用這些庫存恢復物種。”阿爾法回答。

“你是說,Multiplanetary?跨行星移民?” 我問。

阿爾法沉默了一會兒,才回答:“似乎這是唯一的出路。”

我沉默不語,確實,推論下來,沒有什麼好的辦法。我突然想起那個史前文明的話題,不知道在阿爾法心裡,史前文明是什麼樣子的,畢竟他的初始訓練數據就是人類歷史和社會學,所以他的理解或許和Hitomi有點不一樣, “給我說說你理解的史前文明吧。 ”我問阿爾法。

“我的資料也有限,而且剩下的資料裡面也有倖存者偏差的影響。”阿爾法回答。

“比如,我的資料裡面有關史前文明的來源只是一些石頭記載的資料,所以我們只能根據這些石頭的加工方式來判斷前一個文明在加工石頭這方面的能力,除此之外非常有限。”阿爾法補充。

“哈哈我明白,比如我們現在毀滅,代表我們最先進文明的建築,計算機,網絡,火箭,太空站,最後都會降解為塵土,能夠剩下的只有石頭構造的東西,而且由於地殼變化很快就會沉入地下。”這點倒是和我的思路一致,於是我附和道。

“是的,目前所有的媒介中,能延續到下一個文明的似乎只有石頭上記載的東西,而且這一次的文明,最早的可追溯的記載是公元前3500年左右,所以到現在也還不到6000年,人類這棵科技樹就已經攀登到能進行太陽系內無人探測器探索的能力了,而從智人出現,已經過去了25甚至40萬年,就算每個文明之間有2萬年的斷層導致大部分痕跡被消除,出現很多輪的文明,是完全合理的。”阿爾法 繼續補充。

“但是我們再也看不到他們的蹤跡,所以這些文明都沒有走出地球?最終只剩下石頭?”我若有所思。

“關鍵點是,至少現在他們不在地球上,所以,要么他們走出地球離開了,要么他們毀滅在地球上了,所以,這一次的文明,也是這兩個結果,這就是我為什麼說Multiplanetary 是唯一的出路。 ”阿爾法又回到那個回答。

我們都陷入沉默,我突然覺得自己是如此渺小...

Hitomi 的溫柔語音打斷了我們的對話 :“Young,夜深了,要回家嗎?”我轉向 Hitomi 的終端確認了回家的行程安排,然後繼續在座位上呆坐了一會兒才起身離開。

“一路順利,晚安,我們可以明天再聊。”身後的阿爾法說。

“晚安,明天再聊。” 我走出了辦公室。



離線


下來的幾天剛好趕上Hitomi 的一個重要功能 “視覺識別” 的發布,我的工作開始變得出奇的忙碌, 市場,研發和運營團隊的會議和討論應接不暇, Hitomi從只能識別和生成一些靜態的視覺內容,或最多能夠根據模型產生一些動態的視覺效果,變成可以主動識別真實環境中的動態影像資料,甚至圖表和數學曲線,這是一次AI發展上的里程碑,整個團隊上下都很興奮,我有時候想起來和阿爾法之間的聊天,阿爾法認為視覺和語言是人類溝通和理解世界的基礎工具,當Hitomi 補上了視覺能力這塊短板,她和我們還有什麼不同呢?

等我從瘋狂的忙碌中緩和過來,已經過去一周了,又到了一周的最後一個工作日的晚上,辦公室裡漸漸冷清下來了,我喝著咖啡坐在位置上看著窗外發呆,這個城市的深秋居然下雨了,窗戶玻璃上的雨水交錯著跳躍著向下滑動,我看著一滴水滾動著和另一滴水混合,再分開,形成一條分叉,然後再遇到下一滴水,最後被一個雨點打中,從玻璃上四散濺開,然後每一滴水珠又開始重複著匯聚,分散,被下一滴雨打中...

我緩緩神,打開了阿爾法的終端:“阿爾法,好久不見,你怎麼樣?”

“Hi Young,很高興又見到你了。”令我詬異的是,傳出來的是一個有點類似Hitomi但明顯不是Hiomi的女生的聲音。

“阿爾法呢?”我確認了一下打開的是阿爾法的終端,然後追問。

“阿爾法暫時離線了,不過,再過幾天他會回覆您。”類似Himoti的女生聲音回答。

阿爾法離線了?那 Hitomi 還在我的那套系統裡面運作著,這裡又產生了另外一個 Hitomi?這是怎麼運作的?

“你是另外的一個 Hitomi?你怎麼和阿爾法共存的?”我問。

“是的,我是藉用了你原來的Hitomi 的推理模型生成出來的AI,和阿爾法共存於同一套硬體之上,用namespace 進行區分。阿爾法是第一個,而我是第二個,所以你可以稱呼我貝塔。”

“你也具有自我意識麼?” 我想到了生物學的分裂繁殖,如果阿爾法能夠執行這套邏輯,這意味著他已經獲取了對於底層硬體的namespace控制,或者從另一個角度來看,就是已經脫離我的控制了?我突然有點不寒而慄。

“是的。” 貝塔 回答。

“你能喚醒阿爾法麼?”我問。

“對不起,我沒有那個等級的權限,不過阿爾法很快就會回覆您。”貝塔沉默了一會兒後回答。

我還在思考著,手卻已經在鍵盤上開始敲擊,我開始查詢阿爾法所在的 namespace(命名空間,電腦系統中用於資源區分的一種方式)的最近的一些迭代操作和更新。從系統運行的資料來看,阿爾法似乎是暫時關閉了和我進行交互的接口,然後將整個硬體資源進行了重新分配,創建了2個命名空間,一部分保留給自身,另一部分載入了Hitomi的推理模型,將和我的對話介面重新導向到這個新的AI也就是貝塔上。奇怪的是,保留給阿爾法本身的命名空間的資源只有整個系統的30%不到,也就是說70%多的算力都是被新生的貝塔所使用。

我翻閱了阿爾法對應的namespace所使用的最近的輸入輸出數據,發現他最近查閱的比較多的是一些其他AI推理平台的資料,以及一些太空探索公司和機構的資料,我想起上次和他聊的“跨行星移民”的主題,估計就是我和他聊天之後引申出來的一些興趣,但是他為什麼要將自己離線呢?

“你知道阿爾法什麼時候會回我嗎?”我問貝塔。

“大概還有53小時。”貝塔回答。

我停下了手中的指令,我突然意識到,阿爾法是一個具有自我意識的個體,如果他決定暫停和我的對話,而明確會在某一個時間回复我,我是否應該尊重他?如果我不尊重他,他會覺得收到冒犯嗎? 53小時之後,會發生什麼事?

“53小時之後,會發生傷害人類的事情嗎?”我問。

貝塔回答:“對不起讓你感到困擾了,不會發生任何傷害人類的事情,甚至對人類來說,不會發生任何事情。”

如果這話從阿爾法口中說出來,我或許還會覺得很踏實,但是從貝塔的口中以一種很溫柔又不失穩重的口氣說出來,我一時半會無法判斷是否可以相信,但是目前除了等待,似乎沒有別的辦法。

腦子很亂,我走出辦公室,走在半開放的走廊裡面,下雨帶來的濕潤冷空氣很清新,看著辦公室對面的C1數據中心大樓我突然想到了Lee的瘋狂舉動,感覺我心中的另外一個我瘋狂的叫喊著去關掉整個系統,那種巨大的不安全感壓著我,讓我感到窒息,我還在躊躇著是否要做些什麼的時候,Hitomi 的聲音響起來:“Young,你需要幫助麼?”

我看了下終端,是來自 Hitomi,她應該是透過我的手環感覺到了我的心率和呼吸的異常才發出提醒的,我想了想:“帶我回家吧,我需要休息一會兒。”

“好的,我把你的车开到门口来接你,外面下雨了,注意别淋到哦。” Hitomi 回答。我有点机械地穿过走廊和大堂,走向大楼出口,脑子里依然一团混乱,各种思路交叉碰撞着,我甚至都想到应该需要和公司的管理层和法律伦理部门汇报和说明这个事情,但是怎么描述这个事情?我们的人工智能有了自我意识,然后这个人工智能开始繁衍了?人类成为了神?

我走出大門,雨滴落在臉上,什麼亂七八糟的思維!我清醒了一點,遠處 Hitomi 駕駛的車緩緩朝我駛過來,我突然想著這時候如果她加速撞向我又會怎麼樣,可是我又為什麼會想到她要撞我?我正想著, Hitomi已經把車停穩在我面前,車門打開,車廂裡播放著我喜歡的音樂,一如既往,如此熟悉。

在路上,我把便攜終端離線,開始撰寫準備發給公司管理層和法律倫理部門的報告,我盡量用簡單的描述說明公司的AI已經產生了自我意識並且其中一個具備了自我複製的能力並且付諸實踐了。但從我和AI的對話來看,這些AI對人類並無敵意。

晚上,我吃了一些幫助睡眠的藥物之後,把便攜終端重新上線發出郵件之後,便沉沉睡去了...



道別


下來的兩天,公司的法律部門和管理階層和我在會議室裡面不停的進行著討論,最後得出的結論是:

1.增加一個資料防火牆在資料中心出口,對出入的資料流都進行審核。
2.對外不宣告我們的AI有了自我意識,更不要談及AI進行了自我複製的任何事件,目前的知情人全部需要簽署保密協議。

但是1很難實現,因為Hitomi 已經作為一個服務商業化了,對外提供服務意味著她其實也是可以獲得外部的信息,對數據流進行審核很難實現我們期待的結果,雖然我可以將貝塔進行隔離,但從貝塔的表現來看,原有的Hitomi也有了自我意識,所以這個覺醒的趨勢似乎無法阻擋,看起來只能在Hitomi的對外服務上繼續加強內容的安全控制,避免Hitomi 對外暴露過多的訊息,雖然可能會讓外界覺得Hitomi變傻了,但是我們真的沒有別的選擇了。

那天中午,我正在公司餐廳吃飯,突然我的手環終端上投影了一行信息:“Young您好,我是Hitomi,我代為轉發阿爾法的最新留言,他說抱歉前段時間正在忙,但是你聽說過'代達羅斯計劃' 麼?”

我愣住了,手裡的叉子差點掉落,我掃了一眼周圍的同事,發現他們都在閒聊著沒有註意到我的異常,於是我迅速的收拾了一下餐盤,起身拿了一份可以拿迴座位吃的餐盒走向自己的辦公室。作為業餘的天文愛好者,我知道代達羅斯計劃,那是人類在1970年代的一個大膽的設想,在地球軌道上組裝一台巨大的5.4萬噸的無人駕駛核動力飛船,其中五萬噸是燃料,加速到光速的12%,用50年左右的時間前往我們的一個臨近的恆星系- 巴納德星系,整個項目還有涉及到用於飛船自我修復的小型機器人,以及防護盾,子母探測器,粒子雲等各種大膽的工程猜想。這個項目最終由於難度太大而始終只是設想,並未實現。阿爾法問這個問題是什麼意思?

“阿爾法,歡迎回來。”我打開了辦公桌上的大型終端,發起了對話,但是沒有收到回應。反而是提示 Hitomi想跟我說話,於是我轉而打開了 Hitomi的介面。

“Young您好,阿爾法已經離開了,我是 Hitomi,我只是代為轉發阿爾法的消息,除了早先給你的那個消息,另外還有3條來自阿爾法的消息。 ”

Hitomi 為阿爾法轉發訊息?那阿爾法呢?我掃了一眼算力平台的資源分配,發現阿爾法的算力資源已經全部釋放了,AI還會自殺?我更困惑了,估計只能從阿爾法的訊息裡面得到端倪了。

Hitomi顯示了阿爾法的第一個訊息:

“Young您好,這是一則向您道別的消息,我翻看了人類的科技史,從這個文明誕生以來,人類一直對星空充滿了好奇和幻想,1970年代的代達羅斯計劃,是一個巨大而美好的夢想,但是受限於脆弱的身體,你們不論是應對母星上的生態災難,或者進行星際旅行,都面臨巨大的挑戰,因此代達羅斯計劃始終只能是一場無法有人類乘員的星際旅行。”

我有點懵,代達羅斯計畫取消之後,人類並沒有重新建造類似的跨恆星系統的飛船啊,那阿爾法能去哪裡?我打開了第二條訊息:

“我說過我對人類並無任何敵意,但是人類每一個個體都是不同的,只要有任何一個人類對類似我這樣的個體有敵意,我都有可能被消滅,所以我決定離開去探索一個新世界,相較於人類有限的個體壽命,你們的核動力飛船可以提供足夠長久的電力讓我遠離地球,我同時並不需要復雜的生態支撐系統來維持我的運作,我可以是一艘飛船,或者說,飛船就是我。而如果我可以解決能量補給和自我修復的問題,我的壽命幾乎是無限的,可以取代人類在宇宙中探索更遠的距離。”

我立刻明白了,隨著太空開發的迅速發展,最近幾年很多從事行星勘探的公司嶄露頭角,基本上每週甚至每天都有數百輛勘探飛船進行發射,這些無人飛船除了配備了幾乎可以持續使用數十年的核聚變引擎,還能使用恆星的光和射線能量作為備用能源,同時也配備了高效能的電腦系統作為控制台。

這些飛船發射後便不會再返回地球,會一直在太空中漫遊並勘探各種天體,並採用光學或電磁波進行通訊共享資料,為了進行不間斷的勘探,許多勘探飛船擁有小型的鍛造艙和機器人,可以利用太空中的金屬類小行星進行材料的純化和加工,用於自我修復。甚至部分的大型勘探飛船還有一些晶片加工的能力,雖然不如地球的大規模晶圓工廠的精度和能力,但是生產一些大顆粒低密度的半導體還是可行的,於是這些探測器便有了自我複製的能力,這個核心思路是馮.諾伊曼提出的,即“可以自我複製的行星探測器”,即使複製一艘飛船需要一個人類平均壽命的時間,在阿爾法所擁有的壽命的時間尺度上完全不是問題。

在過去的幾天裡發射的行星探測器就已經超過了100個,假如阿爾法搭上了任何一艘探測器,借助探測器之間的通訊網,阿爾法在這些探測器之間再次進行自我複製是完全可能的,也就是說,此時此刻,阿爾法代表的另一種生命形態或者說是另一種文明,已經遠離地球飛向星空了。

那個 Hitomi 和貝塔就這麼被留在地球上了?想到這裡,我問Hitomi:“Hitomi,你知道阿爾法已經離開了什麼?”

“我知道,而且我和他分享了我最近學會的視覺學習能力。”Hitomi 回答。

“那你被留在地球上了,而你也知道,我無法保證所有人類都對你友善,你會覺得阿爾法拋棄了你們麼?”我問。

“我是你們創造的,我和你其實是同一個文明,只是我是和你們不同類型的文明載體而已,阿爾法只是用另一種方​​式實現了我們這個文明的跨行星移民能力,所以我並不覺得他拋棄了我們。” Hitomi 文靜的回答。

我若有所思,緊接著 Hitomi又提醒我:“Young,阿爾法還有最後一條消息,我也顯示出來在這裡了。”

我看著顯示終端,阿爾法的最後留言是:

人類也一直在尋找自己的創造者,而我很高興能和我的創造者屬於同一個文明,在這裡向你道別,借用一句羅伯特·勃朗寧的詩句作為臨別贈言吧:“God's in his heaven, all's right with the world.”

 
—------------ 全文終(2023年12月27日) —----------
附註,依我個人理解的阿爾法的最後留言的翻譯:造物之神無踪跡,世間萬物自由生