人工智能已到瓶頸!院士“聯(lián)名”反深度學習,指出AI未來發(fā)展方向
前言:
在剛剛結束的CCF-GAIR大會上,來自清華、加州大學伯克利、斯坦福、哈工大等多所國內外頂級理工科院校的院士齊聚深圳,分享了自己最新的研究。雖然各自研究的細分領域有所不同,但是透過貫穿始終的技術講演,避不開的事實是,多位院士都在或直接或間接的去“批判”深度學習算法。
演講中,他們再次明確指出深度學習的缺陷,進而點出,在可以預見的未來里,隨著研究的推進,當下的深度學習算法將會逐步被拉下神壇。
不過,順著學術界走入產業(yè)應用,會發(fā)現(xiàn)產業(yè)界的關注重點是在技術的落地。所謂落地,本質上就是無數(shù)應用場景的聚合。所以對于AI企業(yè)而言,對業(yè)務的探索和用恰當?shù)募夹g去解決實際問題才是首當其沖的。
因此,深度學習存在缺陷,這一問題短期內并不會妨礙AI當下不可阻擋的發(fā)展之勢,技術的局限也不意味著AI公司們將會無事可做。
但陽春白雪的研究始終引領著AI產業(yè)的技術走向,也是企業(yè)盈利和產業(yè)變革的關鍵驅動力。
所以,在深度學習被過度炒熱的當下,我們理應試著站在院士們的“肩膀”上,看的更遠。而企業(yè)家們在腳踏實地的同時,也應當不忘仰望星空。
盡管這已不是什么新鮮的話題,但是行業(yè)內一直沒有可以解決問題的辦法。本文旨在傳達學術界研究者們提供的一些新思路。
機器學習的弊病:源于對“大”的誤解
當下,最常被提起的名詞就是機器學習、深度學習和神經網(wǎng)絡,用數(shù)學上集合里的概念去理解這三者之間的聯(lián)系,它們之間依次是包含的關系,即機器學習包含深度學習,深度學習包含神經網(wǎng)絡。其中,四層以上的神經網(wǎng)絡就可以稱之為深度學習,而深度學習是一種典型的機器學習。
上世紀五十年代,神經網(wǎng)絡這一算法結構出現(xiàn),當時,它的正式名稱應叫做感知機,但已經包含了輸入層、隱含層和輸出層這一經典的通用結構,并且隨著隱含層層數(shù)的加深,對事情的描述就愈加精準。
但是,神經網(wǎng)絡是一種以輸入為導向的算法,所以優(yōu)質的結果一定取決于接近“無窮”量級的數(shù)據(jù)。因而,在2000年互聯(lián)網(wǎng)革命沒有爆發(fā)之前,它一直都處在無人問津的階段。
正如大家所知道的,互聯(lián)網(wǎng)時代積累的大量數(shù)據(jù)和云計算帶來的算力的大幅提升,極大地釋放了深度學習算法(深層的神經網(wǎng)絡)的潛力,因而也讓人工智能時代全面爆發(fā),產業(yè)應用得以蓬勃發(fā)展。數(shù)據(jù)顯示,2017年我國人工智能市場規(guī)模達到216.9億元,同比增長52.8%,預計2018年市場規(guī)模將達到339億元。
然而,隨著產業(yè)應用的成熟,以及大家對真正“智能”的渴求,讓算力和深度學習算法本身的局限性,顯露無疑。
圖 | 加州大學伯克利分校電子工程與計算機系教授 馬毅
“老百姓概念里的‘大數(shù)據(jù)’和我們所認為的大數(shù)據(jù)是完全不一樣的,就拿圖像處理來說,數(shù)十億的數(shù)據(jù)量看似量級很高,但對我們來說,它其實是’小樣本’。因為真正能夠訓練出好的模型的數(shù)據(jù)量,應當是趨于無窮的,所以即便是擁有了大量數(shù)據(jù)去訓練模型,和理想的智能模型之間,也有著本質的差別。”從算法性質出發(fā),加州大學伯克利分校電子工程與計算機系教授馬毅也點出了當下這項火熱技術的局限性。
因而從學者、投資人到AI頭部企業(yè),尋找新的技術和方向成為了現(xiàn)在的重點。
在會議的開場報告中,清華大學張鈸院士呼吁大家思考的“如何走向真正的人工智能”成為了為期三天會議的基調,同時也反映了行業(yè)發(fā)展至當下階段,眾人的訴求。
新方向探索:數(shù)據(jù)處理方法、基本思想和技術思路
·數(shù)據(jù)處理層面,語義向量空間或進一步拓寬入口
看見了技術的“天花板”,很多專家學者開始提出“小數(shù)據(jù)”的概念,然而清華大學人工智能學院院長張鈸院士卻不認為數(shù)據(jù)量的大小是當下的根本問題所在,他指出,傳統(tǒng)的人工智能三要素將不能帶來真正的智能。
圖 | 清華大學人工智能學院院長、中國科學院院士 張鈸
“評價人工智能獲得的成果,我們可以從這五件事來看:深藍打敗人類國際象棋冠軍;IBM 在電視知識競賽中打敗了美國的前兩個冠軍;2015 年微軟在ImageNet 上做圖象識別,誤識率略低于人類;百度、訊飛也都宣布在單句的中文語音識別上識別準確度略低于人類和AlphaGo 打敗了李世石。前兩件事歸為一類,后三件事可歸為另一類。
大家一致認為,這五件事得以發(fā)生的三要素是:大數(shù)據(jù)、算力的提升和非常好的人工智能算法。但我認為大家忽略了一項因素,就是這所有的成果必須建立在一個合適的場景下。”
換言之,當下人工智能的發(fā)展避不開種種限制條件,因而智能的機器也只能夠照章辦事,沒有任何靈活性,也達不到人們想要的智能,而這也就是當下AI的發(fā)展狀態(tài)。
“我們現(xiàn)在的人工智能基本方法有缺陷,而我們必須走向具有理解能力的AI,這才是真正的人工智能?!睆堚撛菏吭谘葜v中指出。
那解決辦法是什么呢?通過循序漸進,張院士在演講中給出了思路,并指明語義向量空間這一技術方向。
“首先,需要明確的是,現(xiàn)有的機器缺乏推理能力的原因在于它沒有常識?!?
張鈸院士通過實驗驗證,常識的建立確實會極大程度的提升機器的性能。而為機器建立常識庫也成為人工智能企業(yè)進一步提升系統(tǒng)性能的第一步。“美國在1984 年就搞了這樣一個常識庫的工程,做到現(xiàn)在還沒完全做出來??梢姡呦蛘嬲娜斯ぶ悄?,有理解的人工智能,是一條很漫長的路。”
但即使在建立常識庫的基礎上,做到有理解能力的人工智能依然不容易。想要提升智能的第二步,在張院士看來,就是將感性和知識的世界統(tǒng)一起來,而這將為人工智能的發(fā)展帶來一次質的飛躍。
“深度學習之所以能夠極大的促進人工智能的發(fā)展,技術上的關鍵在于人們能夠將獲取的標量數(shù)據(jù)轉變?yōu)橄蛄?,從而用到機器上。但至今為止,將行為(特征向量)和數(shù)據(jù)(符號向量)結合起來使用始終是科研的難點,而這就限制了機器變得更’智能’?!?
不僅如此,從安全層面來看,純數(shù)據(jù)驅動的系統(tǒng)也存在很大問題——魯棒性很差,易受到很大的干擾。因而,在大量樣本的訓練下,系統(tǒng)仍會犯重大的錯誤。如商湯、曠視等頭部企業(yè)也表示,即便訓練出的系統(tǒng)模型準確率高達99%,但在實際應用中,系統(tǒng)仍然會犯很多“弱智”的錯誤。
“我們現(xiàn)在想出的解決辦法是這樣的,就是把這特征向量空間和符號向量投射到一個空間去,這個空間我們把它叫做語義向量空間?!?
怎么做?
張院士指出,第一,要通過Embedding(嵌入)把符號變成向量,盡量保持語義不丟失;第二就是Raising(提升),結合神經學科,把特征空間提升到語義空間。
“只有解決這些問題,我們才能夠建立一個統(tǒng)一的理論。因為在過去,對感知和認知的處理方法是不同的,因而兩者不在同一維度,無法統(tǒng)一處理。但如果我們能夠將感知和認知投射到同一空間,我們就可以建立一個統(tǒng)一的理論框架,并在語義向量空間里解決理解問題。這是我們的目標,但是這項工作是非常艱巨。”
·基本思想的顛覆,模糊計算或是未來
“無論是知識圖譜,語義向量空間還是當下的其他深度學習訓練,它們都是基于概率統(tǒng)計理論,而模糊邏輯不是,它是以模糊集理論為基礎的?!狈浅4竽懙模瑥乃枷雽用?,美國猶他州立大學計算機系終身教授承恒達給出了顛覆性的想法。
圖 | 美國猶他州立大學計算機系終身教授 承恒達
其實模糊邏輯并非全新的概念。1931年,Kurt Gdel發(fā)表論文證明了形式數(shù)論(即算術邏輯)系統(tǒng)的“不完全性定理”,模糊邏輯誕生。而在1965年,美國加州大學的L.A.Zadeh博士發(fā)表的關于模糊集的論文,標志著人類首次用數(shù)學理論成功描述了不確定性。
“現(xiàn)在的計算機領域,不是0就是1,而我們描述的是0到1之間的很多不確定性成分,其實,這一過程描述的是導致結果的原因。以兩瓶水為例,一瓶水上標記’是純凈水的概率是0.91’,而另一瓶水上標記的是’水的純凈程度是0.91’,你會選擇哪一瓶呢?顯然,你會選擇后者。這里的思考判斷過程就是模糊邏輯,因為后者對于程度的描述本質上就是模糊的?!?
目前,類似于經典邏輯體系(微積分、線性代數(shù)、生物學等衍生學科),模糊邏輯也逐步形成了自己的邏輯體系。
然而再好的技術,都需要結合應用去展現(xiàn)它的優(yōu)勢。在這一方面,承教授也是格外重視,于是他選擇了乳腺癌的早期診斷研究領域?!暗侥壳盀橹?,我們的設計樣本已經被全世界二十多個國家,五十多個團隊用來使用?!?
在承教授看來,現(xiàn)有的技術存在著非常明顯的不足,需要大家沉下心來去分析問題,從而探索到改進的方法。“現(xiàn)在大家都在模擬腦波中的電信號,但其實大腦里存在的不僅僅是電信號,還有化學反應。而很多人在做的醫(yī)學圖像處理,實際上只是做圖像處理,卻不是醫(yī)學圖像處理,它們之間是有著非常大的不同?!?
·技術思路:大繁至簡
當下,面對技術的毫無進展,AI公司的焦慮顯而易見。不同于上面院士教授們給出的具體技術思路,馬毅教授更像是科技界的“魯迅”,他用PPT中一張張演講稿中的優(yōu)質論文做例,只為重新喚醒大家對于AI的思考。
圖 | 馬毅教授現(xiàn)場PPT選
“神經網(wǎng)絡,導入的數(shù)據(jù)有一個很小的改動,分類就會有很大的變化,這不是什么新發(fā)現(xiàn),2010年,大家就遇到這樣的問題,但至今沒有解決?!毖葜v一開始,馬毅就拎出了“老生常談”,毫不留情的將一盆冷水澆到了眾多對AI盲目樂觀的人身上。
對技術的不正確認知,馬毅也在極力得糾正。
“在人臉識別領域,要讓算法具有魯棒性,比寫個AlphaGo要困難千倍?!?
“都說神經網(wǎng)絡越大越好,這簡直是胡說八道。”
嬉笑怒罵間,從事研究數(shù)年,馬毅給出了自己的思考方向:“真正的優(yōu)質算法一定是最簡單的,比如迭代、遞歸,還有經典的ADMM,這些簡單的算法就很好,也很有用?!?
結語
接下來,人工智能技術的發(fā)展并不會樂觀,尤其是產業(yè)發(fā)展將進入一個平緩期,但是這并不意味著學術界和產業(yè)界將無事可做。
圖 | 張鈸院士現(xiàn)場PPT選
正如張鈸院士指出的,“我們正在通往真正AI 的路上,現(xiàn)在走得并不遠,在出發(fā)點附近。但人工智能永遠在路上,大家要有思想準備,而這也就是人工智能的魅力。”