如約而至,谷歌開發者大會正式開幕,穀歌首席執行官 Sundar Pichai關於將重心從移動互聯領域轉向人工智慧領域的判斷幾乎滲透了開幕主旨演講的每一個細節。
據DeepTech深科技5月18日消息,在開幕主旨演講中,Sundar Pichai正式宣佈現已將整體戰略從“移動優先”轉變為“AI優先”。因此,谷歌搭建了全新的AI優先型資料中心,並在 2016 年發佈專門為機器學習定制的TPU(張量處理單元)。TPU與CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。
事實上,TPU已經部署到了幾乎所有穀歌的產品中。不論你使用 Google 搜索、還是與 Google Assistant 對話,甚至在AlphaGo與李世石的圍棋大戰中,TPU也起到了關鍵作用。
一般而言,機器學習分為兩部分:訓練(Train)與應用(Inference)。通過訓練來建立神經網路,要求很強大的計算能力;應用則是去完成分辨圖片上是貓是狗等具體任務。而 TPU 主要是用來優化應用端的,而訓練端目前還是需要使用GPU。比如,穀歌目前每個機器翻譯模型,都需要 100 個 GPU 上花一周時間去完成 30 億個詞語的訓練。
穀歌發佈的Cloud TPU則是同時針對訓練和應用兩方面。全新的Cloud TPU擁有四個處理晶片,每秒可完成180 tflops計算任務。將 64 個 Cloud TPU 相互連接可組成穀歌稱之為Pod的超級電腦,Pod將擁有11.5 petaflops的計算能力(1 petaflops為每秒進行1015次浮點運算)——這對AI領域的研究來說將是非常重要的基礎性工具。
之所以將其稱之為 Cloud TPU 是因為這些全新硬體將加入穀歌雲計算平臺,並整合進穀歌計算引擎(Google Compute Engine)。穀歌要打造全世界最好的機器學習計算平臺,所以也希望為開發者們提供最好、最廣泛的硬體選擇,從CPU、到 GPU(包括 Nvidia 上周最新發佈的 GPU 產品)、再到 TPU。
目前,穀歌已將所有人工智慧相關工作全部納入新建立的Google.ai,目的是集中公司內部所有優勢資源與人力來研發真正能造福人類的AI技術。Google.ai將聚焦三個方面:從事最前沿的技術研發、提供最好的軟硬體工具、探索AI的實際應用。
此外,穀歌還發佈了一個全新版本的TensorFlow,這個專門為移動設備開發的版本名為TensorFlow Lite——這個全新的程式集允許開發者們編寫更為簡潔的深度學習模型,從而可以在 Android 智慧手機等移動設備上運行。
由於穀歌已經開放了眾多在 Android 平臺上運行的 AI 相關服務,也確實有必要開發一個更為精簡、高效的全新架構來滿足在移動設備上運行的需要。穀歌將開源 TensorFlow Lite,並在今年晚些時間開放 API 埠。
最新評論