在AI加速芯片市場的白熱化競爭中,AMD近期震撼發布了Instinct MI350系列加速器,包括MI350X與高性能液冷版MI355X,這一舉動標志著AMD正式向行業領頭羊NVIDIA發起正面挑戰,尤其是在AI訓練和推理領域。
與之前的MI300系列相比,MI350系列不僅在架構層面實現了迭代升級,更明確了其市場定位,專注于滿足AI訓練和推理的嚴苛需求。兩款新品均采用了先進的3nm工藝,并配備了高達288GB的HBM3E高帶寬內存,延續了AMD一貫的高規格配置策略。
作為旗艦型號的MI355X,功耗高達1400W,專為高密度計算環境設計,搭配液冷系統,確保了卓越的性能輸出。在實際性能對比測試中,MI355X在主流大模型推理任務中展現出相對于MI300X三倍以上的性能提升,這一跨代式的性能飛躍,無疑彰顯了架構層面的重大優化。
在與NVIDIA Blackwell平臺的較量中,AMD雖然尚未占據絕對的市場主導地位,但憑借相似的計算性能、更大的顯存配置以及更低的預期成本,在特定客戶需求下展現出了強勁的競爭力。AMD此次不僅強調單卡性能,更重視整體系統架構的優化以及機架規模的部署能力。
MI350系列在規格設計上兼容UBB 8 GPU模塊,這意味著它們可以無縫集成到現有的高性能AI計算平臺中,包括NVIDIA HGX類系統,這種平臺級的兼容性大大降低了部署壁壘,為AMD打入更多數據中心和云廠商體系鋪平了道路。
AMD此次并未過分強調峰值性能的領先性,而是將重點放在了綜合系統效能、機架級資源配置以及開放標準支持上。通過超級以太網聯盟(UEC)和UALink等互聯協議,MI350系列支持64至128顆GPU的橫向擴展,能夠在單個機架中構建起高達36TB的共享顯存資源池,展示了一個具有延展性的AI基礎設施組件。
MI350系列的發布,不僅是AMD技術更新的一次展示,更是其面向AI產業趨勢調整戰略重心的體現。從架構設計到市場策略,AMD正在逐步淡化過去以高性能計算為主的產品定位,將更多資源投入到AI加速領域,尤其是大模型的訓練和推理。
在技術路線上,MI350系列延續了MI300時代的模塊化封裝與堆疊設計思路,但在芯粒數量、互聯方式、緩存架構以及張量計算能力等方面均實現了優化。特別是在FP4與FP6浮點計算性能上的提升,成為AMD本代產品的核心技術亮點,這些精度的粒度更適配推理場景下對功耗與計算資源的綜合要求。
MI350系列面向AI訓練和推理兩個核心場景的定位更加清晰。在訓練方面,得益于更大的HBM帶寬與GPU間互聯性能,MI355X在處理超大參數模型時具有顯著優勢;而在推理環節,FP4的高密度計算能力可以大幅提升每瓦性能,進而降低整體部署成本。
AMD通過精確的市場定位與資源匹配,走出了一條與NVIDIA不同、更具工程實用性的平衡路徑。AMD在此次發布會中強調了“基于價值的銷售”模式,即以系統總效能與總成本的均衡來爭取客戶,而非單純追求性能參數的絕對領先。這一策略背后,是對AI基礎設施建設日益復雜化、資源分布多樣化趨勢的深刻理解。
與NVIDIA更封閉的生態構建策略不同,AMD選擇了開放標準作為其生態擴展的支點。通過支持開放式互聯標準、構建可替換模塊、兼容主流平臺等方式,AMD增強了產品的可適配性與可持續性,降低了用戶的技術鎖定風險。在未來AI基礎設施構建過程中,市場需要的不僅是性能強大的GPU,更是一個可持續、靈活且經濟高效的系統解決方案。