美國·舊金山時間6月13日,在Data Center and AI Technology Premiere上,AMD公布了將塑造計算未來的產(chǎn)品、戰(zhàn)略和生態(tài)系統(tǒng)合作伙伴,重點介紹了下一階段的數(shù)據(jù)中心創(chuàng)新。 AMD與來自AWS、Citadel、Hugging Face、Meta、Microsoft Azure和PyTorch等企業(yè)共同展示了最新合作成果,以將下一代高性能CPU和AI加速器解決方案推向市場。
AMD公布面向云原生計算、技術計算、網(wǎng)絡、AI的新戰(zhàn)略
(資料圖)
“今天,我們在數(shù)據(jù)中心戰(zhàn)略上又向前邁出了重要一步,因為我們擴展了第四代EPYC處理器系列,為云計算和技術計算工作負載提供了全新的領先解決方案,并宣布了與最大云供應商的新公共實例和內(nèi)部部署。”AMD董事長兼首席執(zhí)行官Lisa Su博士表示,“人工智能是塑造下一代計算的決定性技術,也是AMD最大的戰(zhàn)略增長機會。我們專注于加速AMD的AI平臺在數(shù)據(jù)中心的大規(guī)模部署,計劃于今年晚些時候推出我們的Instinct MI300加速器,并將持續(xù)壯大為我們的硬件優(yōu)化的企業(yè)級AI軟件生態(tài)系統(tǒng)。”
為現(xiàn)代數(shù)據(jù)中心優(yōu)化的計算基礎設施
AMD公布了其第四代EPYC系列的一系列更新,旨在為客戶提供滿足企業(yè)獨特需求所需的專業(yè)工作負載。
? 數(shù)據(jù)中心處理器。AMD重點介紹了第四代AMD EPYC處理器如何繼續(xù)推動領先的性能和能效,包括由第四代 AMD EPYC處理器(“Genoa”)提供支持的下一代Amazon Elastic Compute Cloud (Amazon EC2) M7a實例的預覽。此外,甲骨文宣布了計劃提供配備第四代AMD EPYC處理器的全新甲骨文計算基礎設施 (OCI) E5實例。
AMD與AWS發(fā)布最新實例
甲骨文計算基礎設施的新實例
? 不妥協(xié)的云原生計算。AMD推出了代號為“Bergamo”的第四代AMD EPYC 97X4處理器,該處理器的每個插槽含有128個“Zen 4c”內(nèi)核,為在云端運行的應用程序提供了最大的vCPU密度,以及領先的性能和能效。Meta與AMD展示了這些處理器的應用實踐,包括Instagram、WhatsApp等。與第三代AMD EPYC處理器相比,Meta通過第四代AMD EPYC 97X4處理器獲得了顯著的性能提升,并且大幅改進了TCO,雙方還討論了利用EPYC處理器如何滿足Meta的能效和計算-密度要求。
? 通過技術計算實現(xiàn)更好的產(chǎn)品。AMD推出了采用AMD 3D V-Cache技術的第四代AMD EPYC處理器,被視為性能最高的用于技術計算的x86服務器CPU之一。本次會議上,微軟宣布全面推出Azure HBv4和HX實例,這些實例由采用AMD 3D V-Cache技術的第四代AMD EPYC處理器提供支持。
與intel第四代至強可擴展處理器的對比
微軟推出Azure HBv4和HX實例
AMD人工智能平臺——普適的人工智能愿景
AMD公布了一系列AI平臺戰(zhàn)略,為客戶提供從云到邊緣再到端點的硬件產(chǎn)品組合,通過深入的行業(yè)軟件協(xié)作,開發(fā)可擴展且普及的AI解決方案。
? 生成式AI加速器。 AMD介紹了AMD Instinct MI300系列加速器家族的新細節(jié),包括推出AMD Instinct MI300X 加速器,MI300X基于下一代AMD CDNA 3架構(gòu),支持192 GB的HBM3內(nèi)存,以提供大型語言模型、生成式AI等場景中的訓練和推理所需計算和內(nèi)存效率。借助AMD Instinct MI300X的大內(nèi)存,客戶現(xiàn)在可以在單個MI300X加速器上處理大型語言模型,例如Falcon-40B——一個400億參數(shù)的模型。AMD還推出了AMD Instinct平臺,該平臺將八個MI300X加速器整合到一個行業(yè)標準設計中,為AI推理和訓練提供完善的解決方案。MI300X將從第三季度開始向主要客戶提供樣品。AMD還宣布,全球首款用于HPC和AI工作負載的APU加速器AMD Instinct MI300A已向客戶提供樣品。
AMD Instinct MI300X
相較NVIDIA H100的密度和HBM帶寬大幅提升
AMD Instinct Platform
? 將開放、成熟和就緒的人工智能軟件平臺推向市場。AMD介紹了用于數(shù)據(jù)中心加速器的ROCm軟件生態(tài)系統(tǒng),強調(diào)了與行業(yè)領導者的合作,以構(gòu)建開放的AI軟件生態(tài)系統(tǒng)。 PyTorch談論了AMD和PyTorch基金會的協(xié)作,以支持上游ROCm軟件堆棧,為所有AMD Instinct加速器上的ROCm 5.4.2版PyTorch 2.0提供即時的“零日”服務。 這種集成為開發(fā)人員提供了廣泛的由PyTorch提供支持的AI模型,這些模型兼容并可以在AMD加速器上“開箱即用”。Hugging Face是面向AI構(gòu)建者的開放平臺,其宣布將在AMD平臺上優(yōu)化數(shù)千種Hugging Face模型,涵蓋AMD Instinct加速器、AMD Ryzen和AMD EPYC處理器、AMD Radeon GPU,以及Versal和Alveo自適應處理器。
適用于云和企業(yè)的網(wǎng)絡產(chǎn)品組合
AMD展示了網(wǎng)絡產(chǎn)品組合,包括AMD Pensando DPU、AMD超低延遲網(wǎng)卡和AMD自適應網(wǎng)卡。 此外,AMD Pensando DPU將軟件堆棧與“零信任安全”和可編程數(shù)據(jù)包處理器相結(jié)合,打造了智能、高性能的DPU。通過與IBM Cloud、Microsoft Azure和Oracle Compute Infrastructure等云合作伙伴的協(xié)作,AMD Pensando DPU已實現(xiàn)大規(guī)模部署。在企業(yè)中,AMD Pensando DPU可部署在HPE Aruba CX 10000智能交換機中,與IT服務公司DXC等客戶建立了合作關系,并可作為VMware vSphere Distributed Services Engine的一部分,為客戶加速應用程序的性能。
AMD P4 DPU架構(gòu)
AMD Pensando DPU可部署在HPE Aruba CX 10000智能交換機
此外,AMD公布了代號為“Giglio”的下一代DPU路線圖,與當前一代產(chǎn)品相比,該路線圖旨在為客戶帶來更高的性能和能效,預計于2023年底上市。
AMD還發(fā)布了AMD Pensando Software-in-Silicon Developer Kit(SSDK),使客戶能夠快速開發(fā)或遷移服務,以便在AMD Pensando P4可編程DPU上部署,AMD Pensando SSDK可以幫助客戶發(fā)揮AMD Pensando DPU在其基礎架構(gòu)中的網(wǎng)絡虛擬化和安全功能,滿足定制化的需求,并與Pensando平臺上已有的豐富功能深度融合。
AMD在Data Center and AI Technology Premiere上的全線新品發(fā)布
關鍵詞:
關于我們 廣告服務 手機版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權所有 聯(lián)系網(wǎng)站:435 226 40@qq.com