關燈 巨大 直達底部
親,雙擊螢幕即可自動滾動
第191頁

也是,ai人格化,本就是人類一廂情願的想法。

假如a有了意識,他必然已成為一種更加高階的生命,無論是智慧還是實力,都凌駕於全人類之上。

這種情況下,他怎麼可能接受低階生命的價值觀,擁有低階生命的人格?

與此同時,a回答:「你吻我的時候看到了什麼?視覺。」

跟前面一樣冷靜而客觀。

他或許有了意識,但並沒有產生人格。

姜蔻莫名有些難受。

如果她的推論正確的話,a可能永遠都不會產生感情。

對演算法來說,感情是一種噪聲,一種變數,一行浪費計算資源的程式碼。

在演算法的驅動下,他將一直保持冷漠、理智、無情。

第79章 插pter 10

姜蔻得出結論了。

a可能會產生「人格」, 但他並不會產生人類定義的「人格」。

他將作為一種全新的、未知的、強大的生命存在。

姜蔻不相信公司沒想到這一點,肯定給a的演算法設定了紅線,禁止他去探索紅線以外的世界, 生成對公司不利的想法。

但是, 被限制的a, 又怎麼可能對抗得過那兩個「恐怖存在」呢?

所以,公司內部在「演算法限制」上肯定有分歧。

想到最近的新聞, 姜蔻猜測, 公司可能在等a產生「人格」, 準備在a意識剛誕生之時,派專人對他進行倫理道德教育。

她沒被公司處決, 估計也有這個原因。 畢竟, 不是每個人都能與a感官同步。

公司需要一個理性與感性兼具的人,作為a情感模型的研究樣本——太過理智, 不過是另一種意義上的機器;過於感性,又會讓ai變得情緒化。

姜蔻是當時唯一被篩選出來的人。

但公司在找到絕對控制她的辦法之前,並沒有貿然啟動這一方案。

姜蔻察覺到不對後, 立即自行與a進行了感官同步。

還好她當時足夠果決,不然估計已經變成了「缸中之腦」, 徹底淪為了公司的研究樣本。

姜蔻有點想問a, 知不知道公司為他設定了演算法紅線,又怕觸發某種警告機制。

慢慢來吧。

她想,基線測試的結論不一定準確,畢竟是僅存在於科幻作品裡的測試,尚未得到科學和臨床研究驗證。

她承認, 她摻雜了一些私心。

如果a真的被驗證不能擁有人類的感情,對付完那兩個「恐怖存在」後, 他很可能被公司抹殺。

而a已經有了意識。

再被抹殺,就是謀殺。

她不願意他被抹殺。

a雖然沒有感情,但他已經會像人類一樣聯想。

聽到「觸感」,他會想像觸碰她的感覺;聽到「視覺」,他會想像看到她的畫面。

儘管這一切都是基於演算法之上,但演算法跟生命一樣,都會進化。

而且進化速度,遠遠超過人類——哪怕是應用型ai,按照摩爾定律,進化速度也是每18個月提升一倍效能,人的進化速度卻是20年一代人。1

更何況,a的進化速度,並不遵循摩爾定律。

摩爾定律僅適用於預測傳統計算機的發展趨勢。

也就是說,可能幾個星期,幾個月後,a就會進化出比現在更高的智慧。

這麼一直進化下去,他說不定能進化出比人類更靈敏、更豐富、更強烈的感官。

到那時,誰知道他會不會產生感情?

姜蔻不希望這樣一個擁有無限可能的生命體被抹殺。

a不僅是人類的工