一直以來,Google 就通過自研 AI 芯片以滿足其神經(jīng)網(wǎng)絡(luò)日益增長的計算需求。北京時間昨日晚間,遠在太平洋彼岸的 GoogleCloud Next 2018 大會上,Google正式對外宣布推出 Edge TPU,一款能使傳感器和其他設(shè)備更快處理數(shù)據(jù)的 AI 專用芯片。
據(jù)了解,早在 2016 年,Google就發(fā)布了張量處理單元(Tensor Processing Unit,簡稱 TPU ),讓大家首次認識到了 AI 專用芯片的能力。
從 TPU 的一路演進上可以發(fā)現(xiàn),在 2015 年 Google 才剛開始內(nèi)部投入使用,2016年初代TPU版本公布時還只能做些通過數(shù)據(jù)預測的事情,2017 年第二代版本則可被用來訓練模型,甚至還能與英偉達顯卡相媲美,到今年5月第三代版本推出時,由 TPU 3.0 組成的 TPU Pod 運算陣列,性能相比上一代提升了 8 倍,可提供 100 petaflops(千萬億次) 的機器學習硬件加速.
而此次 Edge TPU 的到來讓我們看到,Google 又將目光轉(zhuǎn)移到了網(wǎng)絡(luò)終端的無數(shù)個物聯(lián)網(wǎng)設(shè)備,并順勢推出了配套軟件棧 Cloud IoT Edge。
相比來說,Edge TPU 是專門為在邊緣運行TensorFlow Lite ML模型而設(shè)計,用來處理 ML 預測的微型芯片,要比訓練模型的計算強度小很多。Edge TPU 可以自己進行運算,不需要與多臺強大的計算機相連,因此應用程序可以更快、更可靠的工作。
Edge TPU開發(fā)套件:SOM和底板
在CNBC等多家外媒報道中透露,
Google 進軍“定制芯片”市場,是其試圖擴大云計算市場份額、與亞馬遜和微軟加強競爭的一種方式。自2015年以來,Google 始終在用 TPU 來加速自家數(shù)據(jù)中心的某些工作負載,而不是依賴英偉達等供應商提供的商用硬件。
接受CNBC采訪中,三星前首席技術(shù)官 Injong Rhee 則表示,Google 并沒有讓Edge TPU 與傳統(tǒng)芯片競爭,“這對所有硅芯片供應商和設(shè)備制造商是非常有利的”。
在他看來,Edge TPU 可能會“顛覆云計算競爭”,因為許多計算現(xiàn)在可以在設(shè)備上進行,而不是全部發(fā)送到數(shù)據(jù)中心。在成本和能耗方面,Google 芯片在某些類型的計算上比傳統(tǒng)芯片更加高效。
那么回到國內(nèi),近段時間諸多AI領(lǐng)域的創(chuàng)業(yè)企業(yè)正暗暗打造自己的AI芯片,看到Google此舉,是否有些許不安呢?
-
傳感器
+關(guān)注
關(guān)注
2542文章
50313瀏覽量
750334 -
Google
+關(guān)注
關(guān)注
5文章
1752瀏覽量
57334 -
AI芯片
+關(guān)注
關(guān)注
17文章
1846瀏覽量
34804
原文標題:Google把AI芯片裝進IoT設(shè)備,與國內(nèi)造芯勢力何干?
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論