Micron、次世代AIアクセラレータ向け「HBM3E」メモリを他社に先駆けて出荷開始

masapoco
投稿日
2024年2月27日 6:32
micron hbm3 gen24

Micronは、データセンターおよびAIアクセラレータ向けの最新メモリである「HBM3E」メモリの量産を開始したと発表した。同社のHBM3E known good stack dies(KGSD)は、2024年第2四半期に出荷される人工知能(AI)およびハイパフォーマンス・コンピューティング(HPC)アプリケーション向けのNVIDIAのH200 compute GPUに使用される。

これまでのHBM3と比較して、HBM3Eはデータ転送速度とピークメモリ帯域幅が44%も向上しており、データ転送速度9.2GT/秒、ピークメモリ帯域幅1.2TB/秒超を誇る。これは、NVIDIAのH200のような帯域幅を必要とするプロセッサにとって特に重要である。

NVIDIAのH200は、Hopperアーキテクチャに基づいており、コンピューティング性能自体はH100と同等だ。だが一方で、最大4.8TB/秒の帯域幅を特徴とする141GBのHBM3Eメモリを搭載しており、H100の場合の80GBのHBM3と最大3.35TB/秒の帯域幅から大幅にアップグレードされている。

加えてMicronは、自社のHBM3Eメモリは、競合他社であるSamsungやSK hynixよりも消費電力が30%低いと主張している。

しかし、SamsungのShinebolt HBM3Eメモリの定格は1.225TB/秒であるため、Micronは最速のHBM3Eを実現したとは言えないようだ。

HBM3Eは、チップあたりの最大容量36GBを実現するが、NVIDIAのH200向けHBM3Eは24GBとなり、HBM3の最大容量と同等だ。また、HBM3Eが理論的に提供できる最大12ではなく、8ハイスタックをサポートする。

MicronはHBM3Eの製造に同社の1β(1ベータ)プロセス技術を使用しており、データセンターグレードの製品に最新の製造ノードを使用している同社にとっては、製造技術の高さを示す重要な成果である。

競合のSK hynixやSamsungに先駆けてHBM3Eメモリの量産を開始したことは、現在HBM分野で10%の市場シェアを持つMicronにとって大きな成果である。この動きは同社にとって極めて重要である。というのも、Micronがライバルよりも早くプレミアム製品を投入することで、より大きな市場シェアを獲得しながら収益と利益率を向上させる可能性があるからだ。

Micronのエグゼクティブ・バイス・プレジデント兼チーフ・ビジネス・オフィサーであるSumit Sadana氏は、次のように述べている。「Micronは、業界をリードするHBM3EおよびHBM4のロードマップ、ならびにAIアプリケーション向けのDRAMおよびNANDソリューションの全ポートフォリオを通じて、今後のAIの大幅な成長をサポートする体制を整えています」。

Micronはまた、3月に開催されるNVIDIAのGTCカンファレンスで、同社の36GB HBM3Eチップの詳細を発表する予定だと述べている。同社によると、36GBのHBM3Eチップは1.2TB/秒以上の帯域幅を持ち、電力効率が向上し、スタッキングの上限が12チップになるという。この36GBモジュールのサンプリングも3月に開始される。


Source



この記事が面白かったら是非シェアをお願いします!


  • rtx video super resolution full size scaled 1
    次の記事

    Microsoft、AMD、NVIDIAらが共同開発した「DirectSR」アップスケーリングテクノロジーがGDCで発表へ

    2024年2月27日 8:45
  • 前の記事

    Mistral AI、GPT-4に対抗しうる新モデル「Mistral Large」と独自のAIチャットアシスタントを発表

    2024年2月27日 6:14
    FireShot Capture 146 Au Large Mistral AI Frontier AI in your hands mistral.ai

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • Intel glass substrate 5

    Appleがガラスコア基板の採用に向けて協議を進めている

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • sibelco spruce pine

    世界の半導体は米国のたった1カ所の鉱山に支えられている

今読まれている記事