東芝記憶體株式會社成功開發高速、節能演算法及硬體架構,推動深度學習處理器再進化

November 6, 2018

【東京訊】全球記憶體解決方案領導廠商東芝記憶體株式會社,宣布成功開發出深度學習處理專用的高速、節能演算和硬體架構,可減少辨識準確度下降的程度。新款的深度學習處理器實作於 FPGA[1] 系統,節能效果可達傳統處理器的 4 倍。這項技術進展已發佈於 11 月 6 日在臺灣舉行的 2018 年 IEEE 亞洲固態電路研討會 (A-SSCC 2018)。

 

一般而言,深度學習計算需要大量的乘積累加 (MAC) 操作,因此計算時間過長、能源消耗過多等問題。雖然已有技術可藉由減少位元數參數 (位元精度) 來降低總計算量,甚至能將精度降至 1 或 2 位元,但這些技術也會連帶減弱辨識準確度。東芝記憶體開發的新型演算法可減少 MAC 的作業量,方法是在各層神經網路中,最佳化個別濾波器[2] 的 MAC 位元精度。採用這種新型演算法,可節省 MAC 作業量,同時減少辨識準確度下降程度。

 

此外,東芝記憶體開發了新的「位元平行法」(bit-parallel) 硬體架構,適合進行不同位元精度的 MAC 作業。這項方法可將不同的位元精確度逐一劃分為單一位元,還能針對多個 MAC 單元,以平行方式執行單位元運算;相較於循序執行的傳統 MAC 架構,此方法可大幅改善處理器 MAC 單元的使用效率。

 

東芝記憶體採用不同位元精度及位元平行 MAC 架構,在 FPGA 上實作深度神經網路「ResNet50」[3]。在 ImageNet[4] 影像資料集的影像辨識方面,上述技術可將影像辨識作業時間和能耗減至傳統方法的 25%,同時減少辨識準確度下降程度。

 

根據預測,人工智慧 (AI) 將普遍實作於各種裝置,而這款新開發的高速、節能深度學習處理器技術,也預計廣泛應用於各類邊緣裝置 (如智慧型手機和 HMD[5]) 及需要低能耗的資料中心。若要實現 AI 高速作業,就必須仰賴 GPU 這類高效能的處理器;而記憶體和儲存系統等重要裝置,則攸關 AI 能否有效運用不可或缺的大數據。東芝記憶體公司持續致力於研發 AI 技術,並推出創新的記憶體和儲存裝置,引領資料導向運算的發展。

 

[1] FPGA:現場可程式化閘道陣列,是一種積體電路,客戶或設計人員可在製程結束後進行設定。

[2] 濾波器:一般而言,每層神經網路會有多達數千個濾波器。

[3] ResNet50:一種神經網路,通常用作影像辨識的深度學習基準。

[4] ImageNet:一座大型影像資料庫,通常用作影像辨識的基準,其影像資料數量超過 14,000,000 筆。

[5] HMD:頭戴式顯示器