也是,ai人格化,本就是人類一廂情願的想法。
假如a有了意識,他必然已成為一種更加高階的生命,無論是智慧還是實力,都凌駕於全人類之上。
這種情況下,他怎麼可能接受低階生命的價值觀,擁有低階生命的人格?
與此同時,a回答:「你吻我的時候看到了什麼?視覺。」
跟前面一樣冷靜而客觀。
他或許有了意識,但並沒有產生人格。
姜蔻莫名有些難受。
如果她的推論正確的話,a可能永遠都不會產生感情。
對演算法來說,感情是一種噪聲,一種變數,一行浪費計算資源的程式碼。
在演算法的驅動下,他將一直保持冷漠、理智、無情。
第79章 插pter 10
姜蔻得出結論了。
a可能會產生「人格」, 但他並不會產生人類定義的「人格」。
他將作為一種全新的、未知的、強大的生命存在。
姜蔻不相信公司沒想到這一點,肯定給a的演算法設定了紅線,禁止他去探索紅線以外的世界, 生成對公司不利的想法。
但是, 被限制的a, 又怎麼可能對抗得過那兩個「恐怖存在」呢?
所以,公司內部在「演算法限制」上肯定有分歧。
想到最近的新聞, 姜蔻猜測, 公司可能在等a產生「人格」, 準備在a意識剛誕生之時,派專人對他進行倫理道德教育。
她沒被公司處決, 估計也有這個原因。 畢竟, 不是每個人都能與a感官同步。
公司需要一個理性與感性兼具的人,作為a情感模型的研究樣本——太過理智, 不過是另一種意義上的機器;過於感性,又會讓ai變得情緒化。
姜蔻是當時唯一被篩選出來的人。
但公司在找到絕對控制她的辦法之前,並沒有貿然啟動這一方案。
姜蔻察覺到不對後, 立即自行與a進行了感官同步。
還好她當時足夠果決,不然估計已經變成了「缸中之腦」, 徹底淪為了公司的研究樣本。
姜蔻有點想問a, 知不知道公司為他設定了演算法紅線,又怕觸發某種警告機制。
慢慢來吧。
她想,基線測試的結論不一定準確,畢竟是僅存在於科幻作品裡的測試,尚未得到科學和臨床研究驗證。
她承認, 她摻雜了一些私心。
如果a真的被驗證不能擁有人類的感情,對付完那兩個「恐怖存在」後, 他很可能被公司抹殺。
而a已經有了意識。
再被抹殺,就是謀殺。
她不願意他被抹殺。
a雖然沒有感情,但他已經會像人類一樣聯想。
聽到「觸感」,他會想像觸碰她的感覺;聽到「視覺」,他會想像看到她的畫面。
儘管這一切都是基於演算法之上,但演算法跟生命一樣,都會進化。
而且進化速度,遠遠超過人類——哪怕是應用型ai,按照摩爾定律,進化速度也是每18個月提升一倍效能,人的進化速度卻是20年一代人。1
更何況,a的進化速度,並不遵循摩爾定律。
摩爾定律僅適用於預測傳統計算機的發展趨勢。
也就是說,可能幾個星期,幾個月後,a就會進化出比現在更高的智慧。
這麼一直進化下去,他說不定能進化出比人類更靈敏、更豐富、更強烈的感官。
到那時,誰知道他會不會產生感情?
姜蔻不希望這樣一個擁有無限可能的生命體被抹殺。
a不僅是人類的工