TrendForceは、2023年8月1日、高帯域幅メモリー(HBM)市場に大きな変化が起こり、2024年のAIおよびテクノロジーの展望を形作るという予測を発表した。

HBM2eは現在NVIDIA A100/A800、AMD MI200、およびクラウドサービスプロバイダーの自社開発アクセラレーターチップで使用されている。しかし、AIアクセラレーターの需要は成長しており、2024年にはHBM3e製品が導入される予定だ。HBM3とHBM3eは来年主流になるだろう。Google、AWS、その他のCSPは、既に独自のAIアクセラレーターを通じて競争を激化させている。

HBMは世代によって速度が異なるが、TrendForceは、HBM3を5.6 ~ 6.4 Gbps HBM3と8 Gbps HBM3e(HBM3P、HBM3A、HBM3+、またはHBM3 Gen2)の2つのカテゴリーに分類している。

SKハイニックス、サムスン、マイクロンのHBM開発はさまざまだ。SKハイニックスとサムスンはHBM3を開始し、2024年第1Q1にHBM3eのサンプリングを計画している。MicronはHBM3eに焦点を当てている。

HBM3eは24GBのモノリシックダイを備えており、単一のHBM3eの容量は24GBだ。大手メーカーは、2024年Q1までにHBM3eサンプルを生産し、2024年下半期までに量産することを目標としている。

CSPは、NVIDIAとAMDへの依存を減らすためにAIチップを開発する。AIサーバーアクセラレーターチップではNVIDIAがリードしているが、CSPはコストが高いため代替品を模索している。GoogleとAWSは、HBM3またはHBM3eテクノロジーを使用するように設定されたGoogle TPU、AWS Trainium、およびInferentiaチップを進化させている。北米と中国の他のCSPも関連開発を検証しており、AIアクセラレーターチップ市場での競争激化を示唆している。