GPUとは何か?AIブームの原動力となるチップを専門家が解説

The Conversation
投稿日
2024年3月6日 13:59
amd instinct

世界がAI技術の最新のトレンドを利用しようと躍起になるなか、ハイテク・ハードウェアのひとつであるグラフィック・プロセッシング・ユニット(GPU)が驚くほど注目されている。

最高級のGPUは数万ドルで販売されることもあり、大手メーカーのNVIDIAは、同社製品に対する需要の急増に伴い、その市場評価額が2兆米ドルを突破した

GPUはハイエンドのAI製品だけではない。スマートフォンやノートパソコン、ゲーム機にもそれほど高性能ではないGPUが搭載されている。

GPUとは何なのか?そして、何がGPUをそれほど特別なものにしているのか?

GPUとは?

GPUはもともと、ビデオゲームやコンピューター支援設計ソフトウェアに含まれるような複雑な3Dシーンやオブジェクトを素早く生成して表示することを主な目的として設計された。最新のGPUは、ビデオストリームの解凍などのタスクも処理している

ほとんどのコンピュータの「頭脳」は、中央演算処理装置(CPU)と呼ばれるチップだ。CPUはグラフィカルなシーンの生成やビデオの解凍に使用できるが、GPUに比べてこれらのタスクの処理速度は遅く、効率も低いのが一般的だ。CPUは、ワープロやウェブページの閲覧など、一般的な計算タスクに適している。

GPUはCPUとどう違うのか?

一般的な最新のCPUは8~16個の「コア」で構成されており、それぞれが複雑なタスクを順番に処理する。

一方、GPUは何千もの比較的小さなコアを持ち、それらがすべて同時に(「並列に」)動作するように設計されているため、全体として高速な処理が可能だ。そのため、GPUは、単純な処理を次々と実行するのではなく、多数の処理を同時に実行する必要があるタスクに適している。

従来のGPUには、主に2つの種類がある。

1つ目は、スタンドアロン型のチップで、大型のデスクトップ・コンピューター用のアドオン・カードに搭載されることが多い。もうひとつは、同じチップパッケージにCPUと組み合わされたGPUで、ノートパソコンやプレイステーション5などのゲーム機によく搭載されている。どちらの場合も、CPUがGPUの動作を制御する。

なぜGPUがAIに役立つのか?

GPUはグラフィックシーンの生成以外にも活用できることがわかった。

ディープ・ニューラル・ネットワークなど、人工知能(AI)の背後にある機械学習技術の多くは、さまざまな形式の「行列乗算」に大きく依存している。

これは、非常に大きな数の集合を掛け合わせ、合計する数学的操作である。これらの演算は並列処理に適しているため、GPUによって非常に高速に実行できるのだ。

GPUの次の目標は?

GPUの演算能力は、コア数の増加と動作速度の向上により、着実に向上している。これらの改善は、主に台湾のTSMCなどの企業によるチップ製造の改善によってもたらされている。

あらゆるコンピューター・チップの基本構成要素である個々のトランジスタのサイズは小さくなっており、同じ物理的スペースにより多くのトランジスタを配置できるようになっている。

しかし、それがすべてではない。従来のGPUはAI関連の計算タスクには有用だが、最適ではない。

GPUがもともと、グラフィックスに特化した処理を提供することでコンピューターを高速化するために設計されたように、機械学習タスクを高速化するために設計されたアクセラレーターが存在する。こうしたアクセラレーターは、しばしば「データセンターGPU」と呼ばれる。

AMDやNVIDIAなどの企業が製造する最も人気のあるアクセラレーターのいくつかは、伝統的なGPUとしてスタートした。時間の経過とともに、より効率的な「ブレイン・フロート」数値フォーマットをサポートするなど、さまざまな機械学習タスクをよりうまく処理できるように設計が進化してきた。

GoogleのTensor Processing UnitsやTenstorrentのTensix Coresのような他のアクセラレーターは、ディープ・ニューラル・ネットワークを高速化するために一から設計された。

データセンターGPUやその他のAIアクセラレーターは通常、従来のGPUアドオン・カードよりも大幅に多くのメモリーを搭載しており、これは大規模なAIモデルのトレーニングに不可欠である。大規模なAIモデルであればあるほど、その能力と精度は向上する。

トレーニングをさらに高速化し、ChatGPTのようなさらに大規模なAIモデルを扱うには、多くのデータセンターGPUをプールしてスーパーコンピューターを形成することができる。この場合、利用可能な数値処理能力を適切に活用するため、より複雑なソフトウェアが必要になる。もうひとつのアプローチは、Cerebrasが製造する「ウェハースケール・プロセッサ」のような、単一の非常に大きなアクセラレーターを作ることだ。

特化型チップは未来か?

CPUも立ち止まってはいない。AMDやIntelの最近のCPUは、ディープ・ニューラル・ネットワークが必要とする数値計算を高速化する低レベル命令を内蔵している。この追加機能は、主に「推論」タスク、つまりすでに別の場所で開発されたAIモデルを使用する際に役立つ。

そもそもAIモデルを訓練するためには、大型GPUのようなアクセラレーターが依然として必要だ。

特定の機械学習アルゴリズムに特化したアクセラレーターを開発することは可能だ。例えば最近、Groqという会社が、ChatGPTのような大規模な言語モデルを実行するために特別に設計された「言語処理ユニット」(LPU)を開発した

しかし、このような特殊なプロセッサを作るには、かなりのエンジニアリング・リソースが必要だ。歴史によると、機械学習アルゴリズムの使用量と人気はピークに達し、その後衰える傾向がある。

しかし、一般消費者にとっては、それが問題になる可能性は低い。あなたが使っている製品のGPUやその他のチップは、静かに高速化し続けている可能性が高い。


本記事は、Conrad Sanderson氏によって執筆され、The Conversationに掲載された記事「What is a GPU? An expert explains the chips powering the AI boom, and why they’re worth trillions」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • baidu quantum
    次の記事

    Google、量子コンピューターの実用化に向けて500万ドルの国際コンペ「XPRIZE Quantum Applications」を開始

    2024年3月6日 14:07
  • 前の記事

    M3 MacBook Airの最初のベンチマークテスト結果が登場、M2よりも20%高いシングルコア性能が明らかに

    2024年3月6日 9:56
    Apple MacBook Air 2 up front 240304

スポンサーリンク


この記事を書いた人
The Conversation

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • Intel glass substrate 5

    Appleがガラスコア基板の採用に向けて協議を進めている

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • sibelco spruce pine

    世界の半導体は米国のたった1カ所の鉱山に支えられている

今読まれている記事