AI芯片大戰,英偉達和競爭對手們如何表現?
2023-8-15 11:07:14??????點擊:
在計算機圖形和交互技術會議SIGGRAPH上,英偉達CEO黃仁勛一襲黑皮衣,對臺下數千名觀眾表示,“生成式人工智能時代即將到來,如果你相信的話,那就是人工智能的iPhone時代。”
這是繼NVIDIA GH200爆火后,英偉達今年的二度炫技。頗有“產能供應不上,就在性能卷死大家”的意思。除了英偉達外,AMD、英特爾等國內外各大廠也在瘋狂趕追這波AI熱潮。
卷產能,卷性能
業界消息顯示,全球多數大模型都在使用英偉達的GPU芯片,據TrendForce集邦咨詢研報,預計AI芯片2023年出貨量將增長46%。英偉達GPU是AI服務器市場搭載主流,市占率約60%到70%。
與當前一代產品相比,英偉達新一代GH200擁有基本相同的“基因”:其 72 核 Arm Neoverse V2 Grace CPU、Hopper GPU 及其 900GB/秒 NVLink-C2C 互連均保持不變。核心區別是它搭載了全球第一款HBM3e內存,將不再配備今年春季型號的 96GB HBM3 vRAM 和 480GB LPDDR5x DRAM,而是搭載500GB的LPDDR5X以及141GB的HBM3e存儲器,實現了5TB/秒的數據吞吐量。
簡單而言,這是世界上第一款配備HBM3e內存的芯片,能夠將其本地GPU內存增加50%。這也是專門對人工智能市場做的“特定升級”,因為頂級生成式AI往往尺寸巨大卻內存容量有限。
英偉達表示,HBM3e內存技術帶來了50%的速度提升,總共提供了10TB/秒的組合帶寬。能夠運行比先前版本大3.5倍的模型,并以3倍的內存帶寬提高性能。
根據TrendForce集邦咨詢最新報告指出,以HBM不同世代需求比重而言,TrendForce集邦咨詢表示,2023年主流需求自HBM2e轉往HBM3,需求比重分別預估約是50%及39%。隨著使用HBM3的加速芯片陸續放量,2024年市場需求將大幅轉往HBM3,而2024年將直接超越HBM2e,比重預估達60%,且受惠于其更高的平均銷售單價(ASP),將帶動明年HBM營收顯著成長
以競爭格局來看,目前SK海力士(SK hynix)HBM3產品領先其他原廠,是NVIDIA Server GPU的主要供應商;三星(Samsung)則著重滿足其他云端服務業者的訂單,在客戶加單下,今年與SK海力士的市占率差距會大幅縮小,2023~2024年兩家業者HBM市占率預估相當,合計擁HBM市場約95%的市占率,不過因客戶組成略有不同,在不同季度的位元出貨表現上恐或有先后。美光(Micron)今年專注開發HBM3e產品,相較兩家韓廠大幅擴產的規劃,預期今明兩年美光的市占率會受排擠效應而略為下滑。
結合業界消息,三星電子計劃于今年底開始HBM3生產,并計劃投資數千億韓元,將忠南天安工廠的HBM產能提高一倍。從第四季度開始,三星的HBM3也將供應英偉達,當前英偉達高端GPU HBM芯片由SK海力士獨家供應
據英偉達官方消息,其最新的GH200產品需要到明年二季度才投產,其售價暫未透露。這其中一個重要原因是HBM3e將在明年才會供貨,市場消息顯示,三星和SK海力士預計將于明年第一季度發布HBM3E樣品,并于2024年下半年開始量產。美光方面,則選擇跳過HBM3,直接開發HBM3e。屆時,依靠新款英偉達芯片,AI大模型有望迎來新一輪的爆發。
據TrendForce集邦咨詢觀察HBM供需變化,2022年供給無虞,2023年受到AI需求突爆式增長導致客戶的預先加單,即便原廠擴大產能但仍無法完全滿足客戶需求。展望2024年,TrendForce集邦咨詢認為,基于各原廠積極擴產的策略,HBM供需比(Sufficiency Ratio)有望獲改善,預估將從2023年的-2.4%,轉為0.6%。
英偉達的競爭對手們
AI這個巨大的千億市場,不只是英偉達一家的游戲,AMD和英特爾也在加速追趕,希望分得一杯羹。
英特爾在2019年以約20億美元價格收購了人工智能芯片制造商HABANA實驗室,進軍AI芯片市場。今年8月,在英特爾最近的財報電話會議上,英特爾首席執行官Pat Gelsinger表示,英特爾正在研發下一代Falcon Shores AI超算芯片,暫定名為Falcon Shores 2,該芯片預計將于2026年發布。
除了Falcon Shores 2之外,英特爾還推出AI芯片Gaudi2,已經開始銷售,而Gaudi3則正在開發中。業界認為,目前Gaudi2芯片的熱度不及預期,這主要在于Gaudi2性能難以對英偉達H100和A100形成有效競爭。
英特爾研究院副總裁、英特爾中國研究院院長宋繼強近日表示:“在這一波大模型浪潮當中,什么樣的硬件更好并沒有定論。”他認為,GPU并非大模型唯一的硬件選擇,半導體廠商更重要的戰場在軟件生態上。芯片可能花兩三年時間就做出來了,但是要打造芯片生態需要花兩倍甚至三倍的時間。英特爾的開源生態oneAPI比閉源的英偉達CUDA發展可能更快。
AMD也在加速追趕。今年6月,AMD舉行了新品發布會,發布了面向下一代數據中心的APU加速卡產品Instinct MI300,直接對標H100。這顆芯片將CPU、GPU和內存全部封裝為一體,從而大幅縮短了DDR內存行程和CPU-GPU PCIe行程,從而大幅提高了其性能和效率。
Instinct MI300將于2023年下半年上市。AMD稱Instinct MI300可帶來MI250加速卡8倍的AI性能和5倍的每瓦性能提升(基于稀疏性FP8基準測試),可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周,從而節省數百萬美元的電費。
此外,谷歌、亞馬遜、特斯拉等也都在設計自己的定制人工智能推理芯片。除了國外大廠,國內的芯片企業也迅速入局,其中,昆侖芯AI加速卡RG800、天數智芯的天垓100加速卡、燧原科技第二代訓練產品云燧T20/T21均表示能夠具有支持大模型訓練的能力。
這是繼NVIDIA GH200爆火后,英偉達今年的二度炫技。頗有“產能供應不上,就在性能卷死大家”的意思。除了英偉達外,AMD、英特爾等國內外各大廠也在瘋狂趕追這波AI熱潮。
卷產能,卷性能
業界消息顯示,全球多數大模型都在使用英偉達的GPU芯片,據TrendForce集邦咨詢研報,預計AI芯片2023年出貨量將增長46%。英偉達GPU是AI服務器市場搭載主流,市占率約60%到70%。
與當前一代產品相比,英偉達新一代GH200擁有基本相同的“基因”:其 72 核 Arm Neoverse V2 Grace CPU、Hopper GPU 及其 900GB/秒 NVLink-C2C 互連均保持不變。核心區別是它搭載了全球第一款HBM3e內存,將不再配備今年春季型號的 96GB HBM3 vRAM 和 480GB LPDDR5x DRAM,而是搭載500GB的LPDDR5X以及141GB的HBM3e存儲器,實現了5TB/秒的數據吞吐量。
簡單而言,這是世界上第一款配備HBM3e內存的芯片,能夠將其本地GPU內存增加50%。這也是專門對人工智能市場做的“特定升級”,因為頂級生成式AI往往尺寸巨大卻內存容量有限。
英偉達表示,HBM3e內存技術帶來了50%的速度提升,總共提供了10TB/秒的組合帶寬。能夠運行比先前版本大3.5倍的模型,并以3倍的內存帶寬提高性能。
根據TrendForce集邦咨詢最新報告指出,以HBM不同世代需求比重而言,TrendForce集邦咨詢表示,2023年主流需求自HBM2e轉往HBM3,需求比重分別預估約是50%及39%。隨著使用HBM3的加速芯片陸續放量,2024年市場需求將大幅轉往HBM3,而2024年將直接超越HBM2e,比重預估達60%,且受惠于其更高的平均銷售單價(ASP),將帶動明年HBM營收顯著成長
以競爭格局來看,目前SK海力士(SK hynix)HBM3產品領先其他原廠,是NVIDIA Server GPU的主要供應商;三星(Samsung)則著重滿足其他云端服務業者的訂單,在客戶加單下,今年與SK海力士的市占率差距會大幅縮小,2023~2024年兩家業者HBM市占率預估相當,合計擁HBM市場約95%的市占率,不過因客戶組成略有不同,在不同季度的位元出貨表現上恐或有先后。美光(Micron)今年專注開發HBM3e產品,相較兩家韓廠大幅擴產的規劃,預期今明兩年美光的市占率會受排擠效應而略為下滑。
結合業界消息,三星電子計劃于今年底開始HBM3生產,并計劃投資數千億韓元,將忠南天安工廠的HBM產能提高一倍。從第四季度開始,三星的HBM3也將供應英偉達,當前英偉達高端GPU HBM芯片由SK海力士獨家供應
據英偉達官方消息,其最新的GH200產品需要到明年二季度才投產,其售價暫未透露。這其中一個重要原因是HBM3e將在明年才會供貨,市場消息顯示,三星和SK海力士預計將于明年第一季度發布HBM3E樣品,并于2024年下半年開始量產。美光方面,則選擇跳過HBM3,直接開發HBM3e。屆時,依靠新款英偉達芯片,AI大模型有望迎來新一輪的爆發。
據TrendForce集邦咨詢觀察HBM供需變化,2022年供給無虞,2023年受到AI需求突爆式增長導致客戶的預先加單,即便原廠擴大產能但仍無法完全滿足客戶需求。展望2024年,TrendForce集邦咨詢認為,基于各原廠積極擴產的策略,HBM供需比(Sufficiency Ratio)有望獲改善,預估將從2023年的-2.4%,轉為0.6%。
英偉達的競爭對手們
AI這個巨大的千億市場,不只是英偉達一家的游戲,AMD和英特爾也在加速追趕,希望分得一杯羹。
英特爾在2019年以約20億美元價格收購了人工智能芯片制造商HABANA實驗室,進軍AI芯片市場。今年8月,在英特爾最近的財報電話會議上,英特爾首席執行官Pat Gelsinger表示,英特爾正在研發下一代Falcon Shores AI超算芯片,暫定名為Falcon Shores 2,該芯片預計將于2026年發布。
除了Falcon Shores 2之外,英特爾還推出AI芯片Gaudi2,已經開始銷售,而Gaudi3則正在開發中。業界認為,目前Gaudi2芯片的熱度不及預期,這主要在于Gaudi2性能難以對英偉達H100和A100形成有效競爭。
英特爾研究院副總裁、英特爾中國研究院院長宋繼強近日表示:“在這一波大模型浪潮當中,什么樣的硬件更好并沒有定論。”他認為,GPU并非大模型唯一的硬件選擇,半導體廠商更重要的戰場在軟件生態上。芯片可能花兩三年時間就做出來了,但是要打造芯片生態需要花兩倍甚至三倍的時間。英特爾的開源生態oneAPI比閉源的英偉達CUDA發展可能更快。
AMD也在加速追趕。今年6月,AMD舉行了新品發布會,發布了面向下一代數據中心的APU加速卡產品Instinct MI300,直接對標H100。這顆芯片將CPU、GPU和內存全部封裝為一體,從而大幅縮短了DDR內存行程和CPU-GPU PCIe行程,從而大幅提高了其性能和效率。
Instinct MI300將于2023年下半年上市。AMD稱Instinct MI300可帶來MI250加速卡8倍的AI性能和5倍的每瓦性能提升(基于稀疏性FP8基準測試),可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周,從而節省數百萬美元的電費。
此外,谷歌、亞馬遜、特斯拉等也都在設計自己的定制人工智能推理芯片。除了國外大廠,國內的芯片企業也迅速入局,其中,昆侖芯AI加速卡RG800、天數智芯的天垓100加速卡、燧原科技第二代訓練產品云燧T20/T21均表示能夠具有支持大模型訓練的能力。
- 上一篇:電動汽車技術制造商Proterra申請破產 2023/8/15
- 下一篇:半導體“三雄”搶攻下一代技術! 2023/8/15