昨今のIT業界では生成AIとGPUが話題になっています。
もちろん、Oracle Cloud Infrastructure(OCI)でもAIサービスやGPUインスタンスが提供されています。
改めて、なぜGPUは生成AIに適しているのでしょうか。
その理由をCPUと比較しながらご紹介します。
そもそもGPUとは?
「GPUが生成AIに適している理由」の前に、GPUの特徴をご紹介します。
「GPU」とはグラフィックス・プロセッシング・ユニットの略で、小型で特殊なコアを多数備えた大規模集積回路を指します。
複数のコアを用いて並列でタスクを処理することで、高いパフォーマンスを実現できます。
GPUにはAIワークロードやディープラーニングに特化した特殊なコアが存在します。このコアを用いて複雑な演算を処理することができます。
CPUとGPUの違い
CPUとGPUを比較し、GPUが優れているのはどのような点でしょうか。
(1)コア
GPUにはCPUの数百倍ものコアが搭載されています。
膨大な数のコアで並列に処理することで、膨大な量の数値の行列演算を短時間で実行できます。
CPUでは膨大な時間がかかるような演算処理でも、GPUであれば数分~数十分程度で処理できる可能性があります。
(2)メモリー
GPUとCPUでは、使用するメモリーにも違いがあります。
CPUはRandom Access Memory(RAM)を、GPUはVideo Random Access Memory(VRAM)を使用します。
また、GPUはCPUに比べて格段に高いメモリー容量とメモリーの帯域幅を持っているため、大量のデータを扱うことができます。
GPUが生成AIに適する理由と用途
上記の違いや、演算の複雑度とワークロードに応じて要求される性能が異なることを踏まえると、CPU、GPUにはそれぞれ以下のような用途が適していると考えられます。
| 重視されるプロセッシング・ユニット | 想定されるユースケース |
| CPU | 事務作業 |
| CPU,GPU | 動画編集 大規模な3D開発 |
| GPU | 3DCADのような3Dモデリングレンダリング作業 機械学習 ディープラーニング |
生成AIに適したGPUとは?
ここから、生成AIの動作に適したGPUをご紹介します。
(1)コア
「CPUとGPUの違い」章で述べたとおり、生成AIに利用するGPUはコア数が演算処理の性能に直結します。そのため、ワークロードに応じた多数のコアを備えたGPUを選択する必要があります。
GPUを構成する特殊なコアの例として、NVIDIA社が開発した「Tensorコア」があります。
Tensorコアは数値の演算処理に特化しており、大量のデータを対象としながら、高速なデータ分析が可能です。
(2)メモリー
同じく「CPUとGPUの違い」章で述べたとおり、メモリー容量とメモリーの帯域幅が重要です。
生成AIに十分なメモリー容量が確保されていない場合、必要なデータをメモリー上に保持できないため、性能劣化につながります。
また、メモリーに乗っているデータの読み書きのための十分な帯域幅も影響します。
これらを考慮すると、以下の3点が生成AIに適したGPU選択のポイントです。
① コアを多数備えていること
② メモリー容量が大きいこと
③ メモリー帯域幅が高いこと
OCIで提供されているAIサービス群とGPUインスタンス
最後に、OCIで提供されているAIサービス群とOCIで作成可能なGPUインスタンスについてご紹介します。
(1)OCIで提供されているAIサービス群
OCIでは以下の7つのAIサービスが提供されています。
① OCI Generative
最先端のカスタマイズ可能な大規模言語モデル(LLM)のセットを提供するフルマネージドサービス
② OCI Generative AI Agents
大規模言語モデル(LLM)とナレッジベースを検索して取得するシステムを組み合せたフルマネージドサービス
③ OCI Digital Assistant
ユーザーが自然言語を介してタスクを実行できる、AI駆動のインタフェースを作成およびデプロイできるプラットフォーム
④ OCI Language
テキスト分析を大規模に実行するための、クラウドベースのAIサービス
⑤ OCI Speech
自動音声認識テクノロジーを応用して音声ベースのコンテンツをテキストに変換する、AIサービス
⑥ OCI Vision
ディープラーニングベースの画像分析を大規模に実行するためのAIサービス
⑦ OCI Document Understanding
ドキュメントファイルからテキスト、表、その他の重要なデータを抽出できるAIサービス
(2)OCIで提供されているGPUインスタンス
OCIでは、ベアメタル、仮想マシンの2種類のマシンタイプで、GPUインスタンスが提供されています。
ベアメタル(BM)GPUシェイプ
| ベアメタルGPUシリーズ |
GPU |
CPU |
| GPU |
メモリー |
プロセッサー |
ベース周波数 |
最大ターボ周波数 |
| BM.GPU2: X7ベースのGPUコンピュート |
NVIDIA Tesla P100 |
16 GB | Intel Xeon Platinum 8167M |
2.0 GHz | 2.4 GHz |
| BM.GPU3: X7ベースのGPUコンピュート |
NVIDIA Tesla V100 | 16 GB |
Intel Xeon Platinum 8167M |
2.0 GHz |
2.4 GHz |
| BM.GPU4: E3ベースのGPUコンピュート | NVIDIA A100 |
40 GB |
AMD EPYC 7542 |
2.9 GHz | 3.4 GHz |
| BM.GPU.A10: X9ベースのGPUコンピュート |
NVIDIA A10 | 24 GB |
Intel Xeon Platinum 8358 |
2.6 GHz |
3.4 GHz |
| BM.GPU.A100: E4ベースのGPUコンピュート |
NVIDIA A100 | 80 GB |
AMD EPYC 7J13 |
2.55 GHz |
3.7 GHz |
| BM.GPU.H100.8: X10ベースのGPUコンピュート |
8X H100 | 80 GB |
Intel Sapphire Rapids 8480+ 2x 56c |
2 GHz |
3.8 GHz(最大ブースト周波数) |
仮想マシン(VM)GPUシェイプ
| 仮想マシンGPUシリーズ |
GPU |
CPU |
| GPU |
メモリー |
プロセッサー |
ベース周波数 |
最大ターボ周波数 |
| VM.GPU2: X7ベースのGPUコンピュート |
NVIDIA Tesla P100 |
16 GB |
Intel Xeon Platinum 8167M |
2.0GHz |
2.4GHz |
| VM.GPU3: X7ベースのGPUコンピュート |
NVIDIA Tesla V100 |
16 GB |
Intel Xeon Platinum 8167M |
2.0GHz |
2.4GHz |
| VM.GPU.A10: X9ベースのGPUコンピュート |
NVIDIA A10 | 24 GB |
Intel Xeon Platinum 8358 |
2.6GHz | 3.4GHz |
まとめ
今回は、話題の生成AIとGPUの関係性についてご紹介しました。
GPUはCPUと比較して、コア数やメモリーの面で優れており、複雑な演算に特化しています。
このように膨大な量の演算処理に適しているGPUは、生成AIに不可欠であることがわかります。
また、OCIで提供されているAIサービスやOCIで作成可能なGPUインスタンスもご紹介しました。
今後は、OCIで作成可能なGPUインスタンスの詳細をご紹介する予定です。
◆参考
・OCIで提供されているAIサービスの概要(オラクル社のサイトに移動します)
https://www.oracle.com/jp/artificial-intelligence/ai-services/
・Oracle Cloud Infrastructureドキュメント - コンピュート・シェイプ(オラクル社のサイトに移動します)
https://docs.public.oneportal.content.oci.oraclecloud.com/ja-jp/iaas/Content/Compute/References/computeshapes.htm
執筆者情報
2024年に中途入社。前職では主にOracleのオンプレミス環境の設計構築から運用保守と幅広い業務を経験。
現在はOCIのポストセールス業務を中心に担当。
趣味はパフェ巡り。