|
Facebook,Microsoft目標更快的服務(wù)與新的AI服務(wù)器設(shè)計.灰鴿子下載,遠程控制軟件
Facebook的大盆地和微軟的返工項目Olympus有更多的空間用于GPU加速機器學習
![]()
Facebook周三推出了一些令人震驚的統(tǒng)計數(shù)據(jù),與其社交網(wǎng)絡(luò)。每天,用戶觀看1億小時的視頻,4億人使用Messenger,超過95萬張照片和視頻發(fā)布在Instagram上。
這給數(shù)據(jù)中心中的Facebook服務(wù)器帶來了沉重的負擔,這有助于協(xié)調(diào)所有這些服務(wù),以確保及時做出響應(yīng)。此外,F(xiàn)acebook的服務(wù)器使用機器學習技術(shù)來改善服務(wù),一個可見的例子是圖像識別。
這個故事類似于Microsoft,它不斷尋求平衡其服務(wù)器上的負載。例如,Microsoft的數(shù)據(jù)中心將機器學習應(yīng)用于自然語言服務(wù),如Cortana。
兩家公司都推出了新的開源硬件設(shè)計,以確保更快地響應(yīng)這種人工智能服務(wù),并且設(shè)計將允許公司通過其網(wǎng)絡(luò)和軟件提供更多的服務(wù)。服務(wù)器設(shè)計在周三的美國開放計算計劃峰會上介紹。
這些服務(wù)器設(shè)計可以被其他公司用作內(nèi)部設(shè)計自己的服務(wù)器的參考,然后發(fā)送到亞洲的大規(guī)模制造,F(xiàn)acebook和谷歌已經(jīng)做了多年。金融組織也在嘗試OCP設(shè)計為其組織制造服務(wù)器。
Facebook的大盆地是一個非正統(tǒng)的服務(wù)器盒,該公司稱為“JBOG” - 只是一堆的GPU,可以提供前所未有的力量為機器學習。系統(tǒng)沒有CPU,并且作為需要連接到離散服務(wù)器和存儲盒的獨立盒操作。
大盆地提供了在數(shù)據(jù)中心中解耦處理,存儲和網(wǎng)絡(luò)單元的承諾。在獨立池中,存儲和處理可以更快地擴展,但是當如今填充在一個服務(wù)器盒中時有限。當處理和存儲聯(lián)網(wǎng)在一起時,計算速度也快得多。去耦單元還共享電力和冷卻資源,這減少了數(shù)據(jù)中心的電費。
大盆地系統(tǒng)可以連接到新的Facebook開源雙CPU服務(wù)器設(shè)計Tioga Pass。
分離的數(shù)據(jù)中心設(shè)計對于像Facebook和Google這樣的公司非常重要,這些公司正在購買數(shù)千臺服務(wù)器來滿足他們不斷增長的處理需求。這些公司可以通過解耦存儲,處理和其他資源,更快地擴展Web服務(wù)和機器學習任務(wù)。
英特爾也在使用其Rack Scale架構(gòu)來追求類似的設(shè)計,像戴爾和惠普企業(yè)這樣的公司為這些服務(wù)器實施提供藍圖。
Facebook的大盆地系統(tǒng)有八個Nvidia Tesla P100 GPU加速器,通過超快的NVLink互連在網(wǎng)狀架構(gòu)中連接。網(wǎng)狀互連類似于Nvidia的DGX-1服務(wù)器中的網(wǎng)絡(luò)互連,其在來自日本的富士通的AI超級計算機中使用。
另一個新的AI服務(wù)器設(shè)計來自微軟,它宣布奧林巴斯項目,它有更多的AI協(xié)處理器的空間。微軟還宣布了一個GPU加速器與Nvidia和Ingrasys稱為HGX-1,它類似于Facebook的大蘇爾,但可以縮放到鏈接32 GPU在一起。
奧林巴斯項目是一種更傳統(tǒng)的服務(wù)器設(shè)計,不需要在服務(wù)器安裝上進行大規(guī)模的更改。它是一個1U機架式服務(wù)器,CPU,GPU,內(nèi)存,存儲和網(wǎng)絡(luò)都在一個盒子里。
微軟的新服務(wù)器設(shè)計有一個通用的主板插槽,將支持最新的服務(wù)器芯片,包括英特爾的Skylake和AMD的那不勒斯。奧林巴斯項目將做一些在服務(wù)器上很少見到的事情:從x86到ARM的交叉,支持高通的Centriq 2400或Cavium的Thunder X2芯片。
高通將在OCP峰會上展示基于奧林巴斯項目設(shè)計的主板和服務(wù)器。 Qualcomm服務(wù)器將運行Windows Server,第一次將操作系統(tǒng)顯示為在ARM芯片上運行, 遠程控制, 灰鴿子。
通用的x86和ARM主板支持將允許客戶在不購買新硬件的情況下在芯片架構(gòu)之間切換。將ARM支持帶到奧林巴斯項目是新服務(wù)器設(shè)計的重大成就之一,微軟Azure硬件基礎(chǔ)架構(gòu)總經(jīng)理Kushagra Vaid在一篇博客文章中說。
還有用于英特爾FPGA(現(xiàn)場可編程門陣列)的空間,這將加快服務(wù)器中的搜索和深度學習應(yīng)用。 Microsoft使用FPGA提供更快的Bing結(jié)果。服務(wù)器還有最多三個PCI-Express卡(如GPU),最多八個NVMe SSD,以太網(wǎng)和DDR4內(nèi)存的插槽。它還具有多個風扇,散熱器和多個電池,以保持服務(wù)器運行在電源損失的情況下。
項目Olympus HGX-1通過NVLink互連技術(shù)支持八個Nvidia Pascal GPU。四個HGX-1 AI加速器可以鏈接創(chuàng)建一個32 GPU的大型機器學習集群。
今天的數(shù)據(jù)中心正在經(jīng)歷巨大的轉(zhuǎn)變
|
|