Intel 發表 Nervana NNP 神經網絡處理器
Intel 日前在 D.Live 全球技術大會上發佈了業界首款 NNP 神經網絡處理器「 Nervana 」,為現時自家性能最強、專為深度學習而打造的神經網絡處理晶片,能夠開發全新的 AI 應用程式、可最大限度地提高數據處理能力及更高的可擴展性,全新技術將會提供了巨大的機遇,預計 2020 年將達到 460 億美元的行業收入。
Intel 聲稱 Nervana 神經網絡處理器 ( NNP ) 的 ASIC 專用集成電路是專門用於處理 AI 工作負載,例如矩陣乘法及轉換,與通用運算硬件例如 CPU 及 GPU 並不相同, Intel 亦表示當新一代的 AI 硬件推向市場時,將會與 Facebook 有更緊密切的合作。
Intel Nervana NNP 承諾將無數行業的 AI 運算革新,使用 Intel Nervana 技術,公司將能夠開發全新的 AI 應用程式,可提高數據處理能力、並使客戶能夠獲得更重要的得益改進其業務發展,例如:在 Health Care 健康醫療方面,人工智能提供更早期的診斷及更高的準確性;在社交媒體方面,供應商將能夠為客戶提供更個性化的體驗,並向廣告客戶提供更有針對性的覆蓋面;在汽車行業方面,在這個新平台上能夠加速學習,使 Intel 的自動駕駛技術邁進一大步;在天氣方面,擁有更佳數據輸入的處理器可以擁有更佳的預測去了解氣候變化,能了解風速、水溫等因素增加不同地理區域颶風的預測。
儘管 Intel 當前沒有太深入的剖析 Nervana 的晶片架構,但 Nervana 創造者 Naveen Rao 在一篇博客文章中提及,「其從一開始就能理解所涉及的操作和數據動作,因此該晶片可以不像今日的 CPU 或 GPU 那樣需要一個標準的緩存層次結構。相反, NNP 的記憶體管理顯然是 100% 在軟件中完成的。」
在更早的一篇博客文章亦有提及, Nervana 可以消除與緩存控制器及相干性邏輯相關的電路,從而取得更多的運算資源。當時, Nervana 還計劃為該晶片搭配高達 32GB 四層堆疊的 HBM RAM 晶片,同時 Intel 亦暗示 Nervana 已通過某種形式實現 NNP 運算。
Intel 續稱,已有數代的 Nervana NNP 產品正在研發當中,這些未來產品將有助於實現其目標,到 2020 年深度學習將提升 100x 的增長。