i88百家樂_輝達GH200登場黃仁勳AI模型執行成本將大降

為抵禦超微(AMD)、Google及亞馬遜(Amazon)在人工聰明(AI)硬體領域的競爭,輝達(Nvia Corp)新推了專門用來執百家樂和局規則行AI模子的全新晶片,並表明執行大型語言模子(LLMs)的本錢將「明顯減低」。

CNBC、MarketWatch等外電新聞,輝達執行長黃仁勳(Jensen Huang)8日在2024年畫圖盛典「SIGGRAPH」(Special Interest Group on Computer Graphics and Interactive百家樂 違法 Techniques)刊登次世代超等晶片「DGX GH200 Grace Hopper Superchip」,重要利用於大型影像體生成式AI模子,比如OpenAI的AI聊天機械人「ChatGPT」。

GH200的Hopper畫圖處置器(GPU)與輝達目前最高階AI晶片「H100」雷同,但交融72核心的ARM條理Grace中心處置器(CPU),並搭配141 GB HBM3影像體及每秒5 TB頻寬。另有,NVLink-dual GH200體制內建兩顆GH200,可將容量擴充35倍、頻寬提升三倍。

黃仁勳8日表明,這款升級事後的處置器專門利用於全世界最大資預料到心的程度式擴充(s百家樂 大小賠率cale-out)功課。

GH200預定2024年第二季上市,但輝達並未說明訂價。黃仁勳僅指出,GH200可讓大型語言模子的推論本錢明顯降落。

AI模子的任務過程可分為兩部門:培訓與推論(inference)。

首要,AI模子會以大批資料培訓,過程可能花上數月,有時需求上千顆GPU,比如輝達的H100及A100晶片。百家樂路圖之後,AI模子將戴子郎 百家樂 算牌法被軟體用來預計或產生內容,這個過程稱作推論。宛如培訓,推論過程相當昂貴,軟體每次產生文字或內容都需求很多算力。然而,AI模子只有在除舊時才需求培訓,推論卻會連續不停發作。

輝達副總裁Ian Buck 8日在手機會議表明,最新的GH200專為推論設計,由於這個步驟需求更多影像體容量,可讓更大型的AI模子置入單一體制。

Buck指出,影像體容量加大,可讓AI模子常駐單一GPU,執行時不再需求多個體制或多顆GPU來合作。

輝達8日股價終場下跌166%、收44664美元;盤中一度在新產物刊登後下挫最多3%。

Back To Top
GIF图片        
Floating Ad