自從 ChatGPT 掀起 AI 熱潮,市場(chǎng)對(duì) NVIDIA GPU 需求激增,導(dǎo)致晶片短缺,與此同時(shí),科技公司紛紛將生成式 AI 技術(shù)導(dǎo)入產(chǎn)品,更需要考量算力和成本。亞馬遜持續(xù)採取雙管齊下的方式,不僅積極開發(fā)自研晶片,也讓客戶選擇使用 NVIDIA 最新產(chǎn)品。
AWS(Amazon Web Services)年度盛會(huì)──AWS re:Invent 2023 上,亞馬遜發(fā)表全新 Trainium2 AI 晶片和 Graviton4 處理器,並與 NVIDIA 擴(kuò)大策略合作、引進(jìn)更多產(chǎn)品。
Trainium2 晶片專為訓(xùn)練 AI 模型所建構(gòu),將支援 EC Trn2 執(zhí)行個(gè)體。相較 2020 年 12 月推出的第一代 Trainium 晶片,第二代的效能提高 4 倍、能源效率提高 2 倍,包括 Databricks、Anthropic 計(jì)劃使用這款晶片投入 AI 模型開發(fā)。
以 Arm 架構(gòu)為基礎(chǔ)的 Graviton4 處理器,比起現(xiàn)有 Graviton3 處理器運(yùn)算效能提升 30%、核心數(shù)量增加 50%、記憶體頻寬增加 75%,不僅能耗可低於英特爾或 AMD 的資料中心處理器,更能保護(hù)需要高度加密需求的 AI 訓(xùn)練資料和工作負(fù)載。亞馬遜表示,AWS 已有超過 5 萬家客戶正在使用 Graviton 系列處理器,Graviton4 處理器將支援 EC2 R8g 執(zhí)行個(gè)體,目前提供預(yù)覽版,計(jì)劃在未來幾個(gè)月內(nèi)全面供應(yīng)。
▲ Graviton4 和 Trainium2 原型晶片。(Source:亞馬遜)
在與 NVIDIA 合作方面,AWS 推出 3 款 Amazon Elastic Compute Cloud(Amazon EC2)執(zhí)行個(gè)體:P5e 執(zhí)行個(gè)體配置 NVIDIA H200 GPU,瞄準(zhǔn)大規(guī)模與先進(jìn)生成式 AI 和 HPC 工作負(fù)載;G6、G6e 執(zhí)行個(gè)體分別配置 NVIDIA L4 GPU、NVIDIA L40S GPU,其中 G6e 執(zhí)行個(gè)體特別適合用來開發(fā) 3D 工作流程、數(shù)位分身以及其他使用 NVIDIA Omniverse 的應(yīng)用,這些執(zhí)行個(gè)體都能提供客戶採用。
NVIDIA 更與 AWS 合作推動(dòng) Project Ceiba,聯(lián)手設(shè)計(jì)全球最快、由 GPU 驅(qū)動(dòng)的 AI 超級(jí)電腦,配備 NVIDIA GH200 NVL32 多節(jié)點(diǎn)平臺(tái)與 Amazon EFA 互連技術(shù)的大規(guī)模系統(tǒng)由 AWS 代管,可為 NVIDIA 研發(fā)團(tuán)隊(duì)提供服務(wù)。這部開創(chuàng)先河的 AI 超級(jí)電腦配置 16,384 顆 NVIDIA GH200 超級(jí)晶片,能處理 65exaflops 速度等級(jí)的 AI 運(yùn)算。