Yann LeCun 是紐約大學終身教授,而薩克柏最近更是親任他為 Facebook 人工智能實驗室負責人。為了表彰他在深度學習領域裡的成就,IEEE 計算機學會給他辦法了著名的「神經網絡先鋒獎」。作為人工智能的一種形式,深度學習能夠更好地模仿人類大腦,更重要的是,之前還很多人工智能研究人員還在公開嘲笑該領域,而僅僅過了幾年,現在從谷歌,微軟,到百度,Twitter,深度學習以及開始蔓延到整個商業科技世界了。
很多科技巨頭正在挖掘一種特殊的深度學習,他們稱之為卷積神經網絡(convolutional neural networks),旨在構建更智能地的互聯網服務,比如可以自動理解語言和識別圖像。在谷歌,「卷積神經網絡」幫助他們在 Android 手機上開發語音識別系統;而百度則可以利用它開發全新的視覺搜索引擎。在這一領域裡最負盛名的,非 LeCun 莫屬。微軟的 Leon Bottou 是 LeCun 早期合作人之一,他說道,「沒有人比 LeCun 更能推動卷積神經網絡發展了。」
實際上,深度學習從上世紀 80 年代開始並沒有受到重視,一直到 90 年代才有所好轉,但是 LeCun 一直堅持了下來,正如深度學習運動核心人物 Geoffrey Hinton 所說,「是 LeCun 高舉著火炬,衝過了最黑暗的時代。」
- LeCun 和他的「LeNets」
在加盟 Facebook 之前,LeCun 在貝爾實驗室工作了超過 20 年,那裡是全世界最著名的計算機研究實驗室,誕生過許多偉大的產品。LeCun 在貝爾實驗室工作期間開發了一套能夠識別手寫數字的系統,並把它命名為 LeNet。
自動識別銀行支票,這是卷積神經網絡第一次應由解決實際問題。「過去卷積網絡就像是個小玩具,而 Yann 改變了這一切,他讓這項技術能夠大範圍應用,解決實際問題,」Bottou 說道。受到 Yann LeCun 的激勵,另一位神經網絡專家 Kinihiko Fukushima 在 70 年代和 80 年代發明了認知機(Congnitron)和新認知機(Neocognitron)。這些早期的神經網絡,可以自己學習,靠自己從數據中選出各種模型,無需太多人為幫助。但是實現這一功能,在當時非常複雜,研究人員還無法完全搞清楚如何能讓他們更好地工作。
此時出現了一種聰明的方法,可以減少卷積神經網絡的錯誤,它就是「反向傳播算法」。不過要理解反向傳播,你首先要了解卷積神經網絡是如何工作的。
- 卷積神經網絡究竟是什麼玩意兒?
和其他神經網絡一樣,卷積網絡是由互聯層組織在一起的軟件產物,和大腦中處理視覺信息的視覺皮層非常像。與眾不同的是,他們在一個圖像的多個位置上重複使用相同的濾鏡,這意味著一旦這個網絡學會識別,比如說在某個圖片上識別出了一張臉,它就能在這張圖的其他位置上找到其他臉(該功能同樣適用於音頻和文字)。
前段時間加入百度的吳恩達表示,卷積神經網絡允許人工神經網絡能夠快速訓練,因為他們所佔用的內存非常小,你無須在圖像上的每一個位置上都單獨存儲濾鏡,因此非常適合構建可擴展的深度網絡,卷積神經網絡因此非常適合識別模型。
下面我們來看看反向傳播。
- 你好,反向傳播
反向傳播是關於計算誤差的一種算法,在一個神經網絡中,用那個值來優化各神經網絡層神經元之間的連接強度。Hinton,David Rumelhart,還有 Ronald Williams 提出了反向傳播的一個版本,它可以立刻計算出多個輸入的誤差,之後得出一個平均值。這個值隨後會反向傳播回神經網絡,從輸出層到輸入層。他們在 1986 年的《自然》雜誌上發表了一篇論文,闡述了反向傳播算法可以提高機器學習能力。
而此時的 LeCun 在巴黎緊張地開發自己的反向傳播算法,LeCun 並沒有取平均值,他的反向傳播算法版本每次會取到一個單獨的樣本數據,然後再計算錯誤。這種方法非常複雜,但是效果卻不錯,而且學習速度也更快。LeCun 的 LeNets 深度學習網絡可以被廣泛應用在全球的 ATM 和銀行之中,它可以理解支票上寫的是什麼。但仍然存在很多質疑,LeCun 說道,「不知何故,似乎現在還是無法說服計算機視覺領域圈子,他們仍然覺得卷積神經網絡沒什麼價值。」其中部分原因,可能是因為這項技術雖然強大,但是沒有人可以理解它為什麼如此強大,而且這項技術的內部工作方式仍然是個謎。
- 關於人工智能未來的一個賭局
卷積神經網絡受到了很多人的質疑,Vladinmir Vapnik 就是其中之一,他是一名數學家,也是目前應用最廣的人工智能模式之一的支持向量機之父。
1995 年 3 月的一個下午,Vapnik 和 Larry Jackel(把 LeCun 招進貝爾實驗室的人)打了一個賭。Jackel 認為到 2000 年,我們能夠明確了解人工神經網絡能夠發揮多大作用。Vapnik 不同意這個觀點,他認為就算到 2005 年,也沒有人能夠理解如何使用神經網絡,與 1995 年的狀況相差無幾。他們的賭注是一頓奢華的晚餐,雙方在證人面前簽字畫押,而 LeCun 則是第三方簽名人,Bottou 是非官方見證人。
Vapnik 贏了一半,2000 年,神經網絡的內部工作原理基本上仍然被神秘所籠罩,甚至到現在也沒什麼改觀,研究人員無法精確地判斷出如何讓神經網絡更好地應用在現實生活之中。但是 Jackel 也贏了一半,對於 LeCun 來說這一半勝利更為重要。在 2005 年,深度神經網絡仍然應用在銀行和 ATM 上,這完全得益於 LeCun 在上世紀 80 年代中後期和 90 年代初的工作成就。
- 未來會怎樣?
實際上對於深度學習來說,這僅僅是個開始,包括 LeCun 在內的深度學習圈子仍然在優化這項技術。今天,卷積神經網絡應用最廣泛的地方都需要依靠監督學習。這意味著,如果你想要學習如何識別某個特定對象,那麼你必須要列舉好幾個例子。想要真正像大腦那樣進行無監督學習,還需要深度學習進一步探索。
「大腦無監督學習是如何實現的,我們還不得而知,我們還沒有能力開發出一個類似大腦皮質的算法,」LeCun 說道,「我們知道最終的答案是無監督學習,但是現在我們還沒有找到這個答案。」
反向傳播算法的未來也是一樣,LeCun 卷積神經網絡背後的想法也許並不完美,但是就目前而言,它們已經是現在最先進的技術了。
- LeCun 的貢獻
LeCun 的工作已經遠遠超出了神經網絡。上世紀 90 年代末,他開發了一套圖像壓縮系統,希望可以掃描文件,讓互聯網上的人都能閱讀。這項技術並沒有獲得成功,但是卻給一個年輕人帶來了啟發,他就是 Larry Page。1998 年,Page 還是研究生的時候在斯坦福大學聽了 LeCun 的演講,最終成為了谷歌的聯合創始人。
LeCun 還致力於機器人技術和人工智能硬件。最近他在紐約大學創立了數字科學中心,並指導新一代人工智能研究人員,其中就包括了最近被 Twitter 收購的圖像索引公司 Madbits 創始人 Clement Fabaret。在 LeCun 的空閒時間,他還開發飛機模型。
薩克柏力邀 LeCun 加盟一點都不奇怪,因為他希望讓公司掌握的海量數據發揮更大價值。Facebook 公司最近一直在忙於收購,比如虛擬現實公司 Oculus,太陽能無人飛行器製造公司 Ascenta,還有 WhatsApp。這些產品必將受益於 LeCun 的人工智能技術。對於這次跳槽到 Facebook,LeCun 感到很興奮,因為那裡有他紐約大學的同事,另一位人工智能天才 Rob Fergus。他們將一起把人工智能實驗室發展成為一個世界級的研究機構,並與谷歌、微軟、IBM、以及百度競爭。當然,最後我們回歸本源,不要忘記著名的貝爾實驗室,因為那裡培育了很多技術,也是創新的發源地,包括深度學習。
COMMENT