Google資深研究員Jeff Dean強調(diào),,硬件系統(tǒng)可針對執(zhí)行少量特定的作業(yè)實現(xiàn)優(yōu)化,,并形成大量機器學習模型,,從而打造更強大的神經(jīng)網(wǎng)絡…。
如果您目前尚未考慮到如何有效利用深度神經(jīng)網(wǎng)絡(deep neural network)來解決您的問題,,那么您的腳步必須加快了,。至少,根據(jù)Google資深研究員兼深度學習人工智能研究計劃(即Google Brain)主持人Jeff Dean是這么認為的,。
在日前于美國加州舉行的Hot Chips大會專題演講中,,Dean介紹神經(jīng)網(wǎng)絡如何大幅改寫運算設備,,并在語音,、視覺,、搜尋、機器人與醫(yī)療保健等領域取得重大的進展,。他強調(diào),,硬件系統(tǒng)可針對執(zhí)行少量特定作業(yè)實現(xiàn)優(yōu)化,并形成大量的機器學習(machine learning)模型,,從而打造更強大的神經(jīng)網(wǎng)絡,。
Dean說:“針對神經(jīng)網(wǎng)絡具備的特性打造專用計算機極具意義。如果你能開發(fā)出一套真正善于進行特定作業(yè)(例如加速的低精度線性代數(shù))的系統(tǒng),,那就是業(yè)界夢寐以求的,。”
針對美國國家工程院(National Academy of Engineering;NAE)于2008年提出的14項21世紀重大工程挑戰(zhàn),,Dean認為,,透過神經(jīng)網(wǎng)絡可望在解決這些所有問題時發(fā)揮重要作用。Dean在發(fā)表簡報時特別著重于其中的五項挑戰(zhàn):恢復并改善城市建筑,、推動健康資訊工程進展,、更有效地用藥,以及人類大腦的反向工程等,。不過,,對于NAE重大挑戰(zhàn)清單中的最后一項——為科學探索打造工具,Dean卻保留了他的看法,。
Dean表示:“人們已經(jīng)意識到我們需要更多的運算能力,,才能解決這種種的問題?!?/p>
TPU Pods解決更大的問題
Google最近開始為其客戶和研究人員提供可經(jīng)由云端服務的第二代TensorFlow處理器單元(TPU)機器學習ASIC,。這是一款客制化的加速器板,配備4個第二代裝置,,據(jù)稱可帶來180兆次浮點運算(TFLOPS)運算和64GB高帶寬內(nèi)存(HBM)的性能,。
Dean表示,新的云端TPU芯片設計主要用于將彼此連接在一起,,形成更大的配置——亦即被稱為‘TPU Pod’的機器學習超級計算機,。一個TPU Pod配置中包含64個第二代TPU,可提供11.5 petaflops以及 4TB的HBM內(nèi)存,。他并補充說,,Google還免費提供了1,000個云端TPU給致力于開放機器學習研究的頂尖研究人員。
Dean說:“我們對于TPU Pod解決更大問題的可能性感到非常振奮,?!?/p>
2015年,,Google發(fā)表TensorFlow軟件庫,為機器學習開放來源,,目標就在于建立一個可用于表達與交換機器學習想法與系統(tǒng)的通用平臺,。Dean并展示了一張圖表,顯示TensorFlow才剛過一年半,,就已經(jīng)比其他具有類似用途的庫更受歡迎,。
Google第二代TPU
Dean表示,近五年來迅速出現(xiàn)的神經(jīng)網(wǎng)絡,,主要是受到過去20年來運算能力的重大進展而促成的,。他并補充說自己在1990年時還為此撰寫了一篇有關神經(jīng)網(wǎng)絡的論文。他認為,,當時的神經(jīng)網(wǎng)絡發(fā)展幾乎是可行的,,但大約還需要更高60倍的運算能力。
Dean說:“而今,,事實證明,,我們真正需要更高大約100萬倍的運算性能,而非60倍,?!?/p>