Intel公布在AI上的硬體戰略,強調FPGA將比GPU更省電

目前 Intel 對於人工智慧技術發展,主要基於 FPGA 架構整合 CPU、 GPU 等運算元件,藉此針對不同需求建構各類學習運算模式,同時也能快速依據臨時變更需求調整學習模式。
評論
評論

本篇來自合作媒體 MASHDIGI,INSIDE 授權轉載。

在此次於舊金山舉辦的 AI DEVCON 活動中,前 Nervana 共同創辦人暨執行長,現任 Intel 人工智慧解決方案部門總經理 Naveen Rao 強調人工智慧仍處於相當早期發展階段,同時並非僅能由單一機構獨立推行,必須藉由眾人力量持續推動人工智慧技術發展,並且使其成為改變傳統電腦運算的全新方式。


就 Intel 目前對於人工智慧發展看法,認為將從軟體、硬體與互動交流三大面向投入發展,而這也是目前 Intel 在人工智慧技術著重發展部分。

其中,在軟體應用部分除了加入支援市面主流常見的 TensorFlow、Caffe、Caffe 2、MXNet、pytorch、ONNX、CNTK,並且可藉由 Intel 旗下深度學習編譯器 nGraph 持續相容未來更多學習框架,同時透過開放架構達成內容相容效果,藉此強化人工智慧學習應用效果。

就目前 Intel 對於人工智慧技術發展,主要還是基於 FPGA 架構整合 CPU、 GPU 等運算元件,藉此針對不同需求建構各類學習運算模式,同時也能快速依據臨時變更需求調整學習模式,因此 Intel 強調在部分情況下,透過 FPGA 架構佈署的學習模式將比藉由 GPU 加速方式更為省電。

不過,持續強調 FPGA 架構所帶動優勢,並非代表 Intel 認為 GPU 加速效益不佳,最主要還是看人工智慧技術應用方向,以及實際學習模式,例如應用項目面臨大幅度變更學習運算模式,而非鎖定巨量學習運算規模,必須藉由 GPU 加速縮短學習時間的情況下, FPGA 架構自然有其彈性應用優勢。以著重發展 GPU 的 NVIDIA 立場而言,同樣也認為 FPGA 架構有其優勢所在,而 GPU 則是在學習加速有明顯效率表現,進而以更具效率方式推動人工智慧技術成長。

而針對 TensorFlow 學習框架應用,Google 持續藉由更新 TPU 設計讓學習效率具體提昇的情況, Intel 日前也宣布與微軟攜手合作 名為 Project Brainwave 服務項目 ,透過 FPGA 架構與 Azure 雲端服務平台結合應用,讓開發者能依據不同需求即時調整學習運算資源配置,強調相比 Google 以 TPU 推動運算模式可縮減 5 倍運算延遲效果。另一方面, Intel 在與亞馬遜旗下 AWS 雲端平台合作部分,同樣也是藉由 FPFGA 運算架構提供彈性配置效果,藉此對應最佳運算效益。

因此在結合開放學習運算資料庫、藉由深度學習編譯器達成不同學習框架運算相容,並且配合旗下 XEON 處理器藉由 FPGA 架構彈性配置推動更具效率的學習效果,更進一步與合作夥伴、開發者等交流互動、建立深度合作,進而擴大人工智慧技術應用範疇。在未來逐漸成為主流發展的物聯網應用方面, Intel 除日前宣佈推出 OpenVINO 開發工具 ,更與 C3 IOT 平台合作打造各類微型服務等物聯網應用項目。

藉由人工智慧學習運算, Intel 認為將能帶來全新應用改革,例如藉由電腦視覺推動搜尋內容推薦,或是避免不良內容出現在搜尋結果,甚至應用在 Facebook 可讓動態牆顯示內容更符合個人閱讀需求,此外也能應用在影像內容及時標示、顯示註解,或是在賽事轉播過程即時標示畫面中出現選手名稱、單場得分或助攻等數值等。更多應用則包含監視系統物件識別、動畫人物肢體或嘴部動作模擬真實表現,以及醫療分析、自動駕駛、內容創作等領域,因此讓不少市場看法認為人工智慧將可帶動下一波工業革命。



精選熱門好工作

Android 工程師

Omlet Arcade 美商歐姆雷特
臺北市.台灣

獎勵 NT$15,000

樂趣買Marketing Specialist(Rakuma)

台灣樂天市場
臺北市.台灣

獎勵 NT$15,000

Web Application QA Engineer

Omlet Arcade 美商歐姆雷特
臺北市.台灣

獎勵 NT$15,000