美國英特爾首席技術官(ChiefTechnologyOfficer)賈斯汀·萊特納(JustinRattner)訪問日本,,并以“我們對未來的四個預測”為題,,介紹了英特爾實驗室(IntelLabs)推進的技術研發(fā),。
第一個預測是“通過將供電電壓(Vcc)和閾值電壓(Vt)設定在相同水平,,大幅降低功耗”。“使產(chǎn)品以數(shù)百MHz左右的速度進行工作,,從而可將功耗降至目前的1/10”(萊特納),。萊特納還指出,,可在需要確保性能時提高供電電壓,以全功率進行工作,。在日常使用時,,可通過降低供電電壓來抑制功耗等。
接下來萊特納提到了“將基于硅光子學(SiliconPhotonics)的光互聯(lián)”,。除了在2009年9月舉行的“IDF”上發(fā)布的“LightPeak”外(<參閱ahref="/news/mobi/48102-20090925.html"TARGET=_blank>本站報道),,還將在內存接口中使用光互聯(lián)“RemoteOpticalMemory”以及實現(xiàn)太比特/秒級的網(wǎng)絡等。RemoteOpticalMemory“可將內存集成在服務器一方,,適當改變分配給客戶端的內存容量”(萊特納),。
第三個預測是“由基于軟件的渲染來推進視覺計算”。英特爾實驗室正在開發(fā)的圖形處理器(GPU)“Larrabee”,,通過提高編程的通用度,,“可輕松封裝此前的GPU難以實現(xiàn)的算法。例如,,陰影貼圖(ShadowMap)和無規(guī)則透明度(OrderIndependentTransparency)等”(萊特納)。
最后萊特納提到的是“利用虛擬內存技術,,通過多個不同的內核有效共享內存”,。例如,在目前的架構中,,GPU就連接了輸入輸出總線,。要想將GPU作為通用計算引擎使用,就需要進行如下作業(yè):將主處理器中擁有的數(shù)據(jù)一次性串行化(Serialize)后傳輸至GPU,,收到計算結果后,,將其轉換為編程擁有的形狀。“如果在內核之間共享相同的虛擬內存空間,,則無需此類數(shù)據(jù)轉換過程,,可大幅減少開銷”