人工智慧的核心是&ldo;神經網路&rdo;。科學家們模仿人類神經系統,讓機器進行學習。&ldo;神經元&rdo;們一層一層分佈下來,每個單元都能接收部分資料,再將結果向上傳給其他單元。
還是用&ldo;貓&rdo;來打比方,第一層可以將圖片切割、降維, 得到許多小圖, 第二層在每個維度利用色差尋找邊緣, 三四五層根據勾勒出的邊緣確定各個器官形狀,六七八層透過各個部分顏色判斷毛色、花紋,瞳色……最後頂層得出答案:這是貓、狗、兔子、其他。
2006年多層神經網路出現以前,機器學習都只處於初級階段, 需要人工提取特徵。而2006年後, 它進入到&ldo;深度學習&rdo;的大時代。人類不監督、半監督, 機器自己分析特徵、獨立思考。給一萬張貓的圖片, 說&ldo;這都是貓&rdo;, 它就懂了,再給一張它沒見過的,問&ldo;是不是貓&rdo;, 它會說是。人們給它正確答案的資料集, 它便可以進行學習, &ldo;看&rdo;的越多會的越多,不斷最佳化自身能力。因此,&ldo;人工智慧&rdo;定義十分清晰,區別是真&iddot;人工智慧還是噱頭只需要看它有沒有模仿人腦。
然而,對每一層都在提取什麼特徵,以及機器為何要做這些事情、為什麼能得出結論,人類無法解釋。根據輸出,有些提取簡單易懂,比如勾勒邊緣、模糊圖片、突出重點、銳化圖片……可是,在很多時候,人類完全t不到!看著某層下來以後圖片所變成的樣子,只能叫一聲&ldo;什麼鬼!&rdo;有時人類只能提出幾個特徵,ai分出好幾百層!
它給了人空前的可能,也給了人無盡的困惑。
就像人類無法摸清大腦的工作原理一樣,他們同樣無法摸清ai的工作原理。
訓練ai這種方式為何能行?它是如何學的?資訊存在哪裡?為何下此判斷?不知道。
它好像在玄幻境界。碼工時常覺得自己正在養蠱,賊刺激,給蠱蟲餵個這個、餵個那個,一掀蓋子,嚯,出來一個超厲害的東東!
有人說,讓ai向人解釋一個東西,相當於讓人向狗解釋一個東西,聽著 sad。
人類歷史充分表明,只有一個決策可以解釋、分析,人才可以瞭解它的優點缺陷,評估風險,知道它在多大程度能被信賴。
很多專家說過&ldo;必須質疑人工智慧為何做出一個決定……&rdo;&ldo;難道,無人汽車每回出事,企業都說不知原因、ai讓它這麼幹的?&rdo;
何況,不幸的是,如同大腦會出錯,ai也會出錯。
於是問題來了:我們能信任ai嗎?我們能在多大程度上相信ai?我們能在生死攸關時信任ai嗎?
當然,也有學者表示:&ldo;它能做到就足夠了!&rdo;&ldo;大腦一直為你工作,你也一直都信任它,即使並不知道它是如何工作的。&rdo;
目前,各國科學家正致力解開黑箱,政府、行業協會也對此有要求,已經取得一些成果‐‐不少東西都是數學。
阮思澄是一直覺得,這種現象十分正常,沒有那麼邪乎。在人類的文明當中,往往實踐先於理論。比如,老祖宗在打造刀劍時、發明火-藥時,清楚地知道原理嗎?no!都是東西先出來了,能work了,大家才開始研究原因。
ai也是啊!慢慢來嘛。
不過,雖然如此,攻城獅們寫程式時,也能根據他人經驗,知道大概該怎麼做。ai能自己學,但是,攻城獅們需