作為人工智能先驅者,、Google Brain高管和多倫多大學教授,Geoffrey Hinton對于谷歌參與五角大樓AI軍事項目的態(tài)度如何,?在最近的一次訪談中,,他終于告訴人們:我反對!此外,,Hinton還對人工智能在創(chuàng)新上的挑戰(zhàn)等問題發(fā)表了意見,。看得出,,Hinton對于人工智能的未來非常有信心,,他也希望研究者們能夠將眼光放得更加長遠。
20 世紀 70 年代初期,,Geoff Hinton 開始做簡單的數(shù)學模型,,模仿人腦神經元視覺理解世界的過程,。之后數(shù)十年,人工神經網絡仍然是一門不實用的技術,。但是 2012 年,,Hinton 和他的兩名本科生使用神經網絡實現(xiàn)了計算機圖像目標識別準確率的大幅提升。之后六個月內,,谷歌收購了這三名研究者創(chuàng)辦的創(chuàng)業(yè)公司 DNNresearch,。
現(xiàn)在,這項技術已經成為所有大型科技公司未來規(guī)劃的重中之重,。
「作為谷歌高管,,我不應該公開抱怨五角大樓項目,因此我私下里抱怨,?!笹eoff Hinton 說。
NeurIPS 2018 期間舉辦了人工智能 G7 大會,,來自世界頂尖工業(yè)化經濟體的代表討論如何鼓勵 AI 的優(yōu)勢,,并最小化其負面影響(如工作職位減少和學會歧視的算法)。Geoff Hinton 參加了這次會議,,《連線》對他進行了訪問,。訪問內容如下:
Wired:加拿大總理賈斯丁·特魯多在人工智能 G7 會議上說,需要更多研究來應對人工智能帶來的倫理挑戰(zhàn),。你怎么認為,?
Geoff Hinton(下稱 GH):我一直很擔心致命自主武器的濫用。我認為應該設立類似《日內瓦公約》的法規(guī)來禁止它們的使用,,就像禁用化學武器那樣,。即使并非所有國家或地區(qū)都簽署這樣的條約,但它可以作為一種道德旗幟,。你會注意到誰沒有簽署它,。
Wired:超過 4500 名谷歌員工簽名抗議抗議五角大樓合同。谷歌稱該項目并非用于攻擊目的,。你是否簽署了抗議書,?
GH:作為谷歌高管,我認為我不應該公開抱怨它,,因此我私下里抱怨,。我沒有簽署抗議書,而是和谷歌聯(lián)合創(chuàng)始人 Sergey Brin 吐槽了幾句,。他說他對此也很苦惱,。還好現(xiàn)在谷歌放棄競標五角大樓的合同。
Wired:谷歌的領導者決定僅完成合同,,而不是續(xù)約合同,。他們發(fā)布了關于 AI 應用的準則,,保證不將技術用于武器。
GH:我認為谷歌做出了正確的決定,。將來或許所有事情都需要云計算,我們很難知道在哪兒畫線,,一定程度上畫線這件事是隨意的,。我很高興谷歌畫下了這條線。這些準則對我來說意義重大,。
Wired:人工智能在日常生活中也引發(fā)了一些倫理問題,。例如,用軟件為社會服務或醫(yī)療做決策,。我們應該注意什么呢,?
GH:在讓技術運轉這方面我是專家,但在社會政策方面我是外行,。我對此持有技術專業(yè)見解的地方在于,,監(jiān)管結構是否堅持讓你解釋 AI 系統(tǒng)的運行原理。我認為這將是災難,。
人們無法解釋自己做很多事的工作原理,。當你雇傭某人時,決策是基于你能夠量化的所有事物,,以及所有本能直覺,。人們不知道自己是怎么決策的。如果你讓人解釋自己的決策,,你就是強制他們編故事,。
神經網絡也有類似的問題。當你訓練神經網絡時,,它會學習從訓練數(shù)據(jù)中提取的十億個表示知識的數(shù)字,。如果你輸入一張圖像,它會輸出正確的決策,,比如這是不是行人,。但是如果你問它「為什么你這么認為?」,,要是有用于決定一張圖像中是否包含行人的簡單規(guī)則,,那這個問題早就解決了。
Wired:我們怎么知道何時應該信任這些系統(tǒng)呢,?
GH:你應該基于執(zhí)行效果來管理它們,。運行實驗來看是否存在偏差,或者它會不會殺人,。拿自動駕駛汽車來說,,我認為人們逐漸接受它了,。即使你不怎么了解自動駕駛汽車的運作原理,但如果自動駕駛汽車的事故率大大低于人類駕駛汽車,,那么這就是件好事,。我認為我們必須像對待人類一樣對待人工智能系統(tǒng):只看它們的執(zhí)行效果,如果它們不斷遇到困難,,那你可以說它們不夠好,。
Wired:你曾經說過,思考大腦的運作原理對你在人工神經網絡方面的研究有所啟發(fā),。人類大腦通過由大量突觸聯(lián)結而成的神經元網絡從感官中獲取信息,。人工神經網絡通過由權重連接的數(shù)學神經元網絡獲得數(shù)據(jù)。在上周發(fā)布的一篇論文《Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures》中,,你和幾位共同作者認為我們應該進一步揭示人腦中的學習算法,。為什么?
GH:人腦與大部分神經網絡解決的問題大相徑庭,。人腦中大約有 100 萬億個突觸,,是人工神經網絡權重數(shù)量的 10,000 倍。人腦使用大量突觸盡可能多地從幾個 episode 中學習,。而深度學習擅長利用神經元之間的連接(比人腦突觸少得多)來學習,,且它還需要有很多 episode 或樣本。我認為人腦不考慮將大量知識擠到少量連接中,,它考慮的是用大量連接來提取知識,。
Wired:要使機器學習系統(tǒng)更多地按人腦的方式運作,我們應該怎么做,?
GH:我認為我們需要轉向不同類型的計算機,。幸運的是我有一臺。
(Hinton 從錢包里掏出一個大的硅芯片,,是 Graphcore 公司的一款芯片原型,。)
我們用來運行神經網絡的幾乎所有計算機系統(tǒng),甚至谷歌的特殊硬件,,都使用 RAM 來存儲正在運行的程序,。將神經網絡的權重從 RAM 中取出以便處理器使用需要耗費大量能源。因此每個人必須確保自己的軟件能夠獲取權重,,軟件還會多次使用權重,。這是一筆巨大的成本,而你對每個訓練樣本都必須這么做,。
在 Graphcore 芯片上,,權重存儲在處理器上的緩存中,而不在 RAM 中,這樣權重就無需移動,。這樣很多事就比較好探索了,。我們或許將得到這樣的系統(tǒng):擁有一萬億權重,而每個樣本只能接觸其中十億權重,。這樣就更像大腦的規(guī)模了,。
Wired:近期對 AI 和機器學習日益高漲的興趣意味著對相關研究的資助前所未有。該領域的快速增長是否也帶來新的挑戰(zhàn),?
GH:社區(qū)面臨的一項巨大挑戰(zhàn)是,,如果現(xiàn)在你想發(fā)表一篇機器學習論文,那么論文中必須有圖表,,表中列舉不同數(shù)據(jù)集、不同的方法,,且你提出的方法必須看起來是最好的那一個,。如果不是,那么這篇論文很難發(fā)表,。我認為這不利于人們思考創(chuàng)新型想法,。
現(xiàn)在如果你寫了一篇表達全新想法的論文,它幾乎沒有可能被接收,,因為很多年輕的論文評審者壓根不理解它,。或者它到了資深評審者手里,,但 ta 要評審太多論文,,無法在第一輪就理解它,并認為這篇論文無意義,。任何讓大腦受傷的事物都可能不會被接受,。我認為這非常糟糕。
在基礎的科學會議上,,我們應該追尋全新的想法,。因為我們知道長期來看,全新想法要比小的改進具備更大的影響力?,F(xiàn)在我們的做法顛倒了,,我認為這是最大的弊端。
Wired:這會導致該領域的發(fā)展脫離正軌嗎,?
GH:只需要等待幾年,,失衡會糾正失衡。這只是暫時的,。公司忙于教育員工,,大學忙于教育學生,大學終將雇傭更多該領域的教授,它會自行回歸正確的道路,。
Wired:一些學者提醒,,當前的人工智能炒作將導致「AI 寒冬」,就像 1980 年代那樣,,由于進展無法滿足期望,,而導致興趣和資金的干涸。
GH:不會進入「AI 寒冬」,,因為 AI 已經進入你的手機了,。在之前的「AI 寒冬」中,AI 并沒有成為人們日常生活的一部分,。而現(xiàn)在它是了,。