NVIDIA A100 GPU  〜AIの未来を支える技術とは?~

2025年5月19日掲載

キービジュアル

AIやデータ分析の需要が急速に高まる現代、高性能な計算能力を持つGPUが不可欠となっています。そこで注目されるのが、NVIDIAが開発したGPUです。

本記事では、NVIDIAが開発したGPUの中で、A100 Tensor Core GPU(以下、A100)の特長や具体的な活用事例、そしてソフトバンクの取り組みについて紹介します。

今後はH100 Tensor Core GPUなど他のGPUや関連情報についても紹介する予定です。

目次

はじめに:NVIDIA A100 Tensor Core GPUとは?

A100 Tensor Core GPUはNVIDIAが2020年のGTC※で発表したデータセンタ向けGPUで、AIトレーニングや推論、高性能計算(High-Performance Computing(HPC))、データ分析など、多様なワークロードに対応しています。このブログでは、その仕様や特長、ユースケース等を探ってみました!

参考 NVIDIA A100 Tensor Core GPU

※GTC(GPU Technology Conference) とは、AIの最先端技術を活用した取り組みを紹介するNVIDIA最大のカンファレンスです。ソフトバンク社員による2025年のGTCカンファレンスレポート記事もぜひご覧ください。

A100 Tensor Core GPUの仕様、特長とは?

A100は、NVIDIA Ampereアーキテクチャを採用したGPUで、以下のような仕様と特長があります。頭文字の”A”はAmpereから来ています。

<仕様>

項目

内容

GPU

A100 Tensor Core GPU

メモリ容量

80 GB(HBM2e)

メモリ帯域幅

2 TB/s

FP16 Tensor コア※

312 TFLOPS | 624 TFLOPS

INT8  Tensor コア※

624 TOPS | 1248 TOPS

電力消費

400 W

GPU インスタンス

最大 7

<特長>

  • A100 は前世代の NVIDIA Volta™ と比べて最大 20 倍のパフォーマンスを提供
  • A100 は、マルチインスタンス GPU (MIG) を使用して 7 つの独立した GPU インスタンスに効率的にスケールアップすることやパーティション分割が可能なため、ワークロード需要に動的に適応
  • A100 80GB は GPU メモリが 2 倍になり、2 TB/s のメモリ帯域幅を実現

A100の強み

  • 前世代に比べ、優れたAIパフォーマンス

  • 大容量メモリと高いメモリ帯域幅
    →80GBのHBM2eメモリを搭載し、2TBのメモリ帯域幅を持つため、大規模なデータセットや複雑なモデルを効率的に処理可能

  • 比較的新しいモデルのH100やB200などに比べ、安価

A100に適したユースケース(AI、HPC、データ分析)は?

A100のユースケースを一部まとめてみました。

<AI(人工知能)>

  • 大規模モデルのトレーニング:BERTなど、大規模モデルの学習を高速処理。
  • 推論ワークロード: 推論の高速処理。
  • 医療画像解析: MRI/CTスキャンのリアルタイム処理で診断効率を向上。

<HPC(高性能計算)>

  • 科学シミュレーション:気象予測での混合精度計算として活用。
  • 創薬研究: タンパク質構造解析を高速化し、新薬開発を加速。

<データ分析>

  • 金融リスク管理: 大規模データセットを用いたリアルタイム分析。

コスト面の考慮(オンプレミス vs クラウド)

オンプレミスとクラウドのコスト面の比較を下記に簡単に示してみました。

  • オンプレミス: 初期投資が大きいが、長期的にはコストを抑えられる。

  • クラウド: 初期投資が小さいが、利用料が継続的に発生する。

A100の場合、PoCで利用するケースも多いと思いますので、基本的にはスポットで使えるベンダー提供のクラウド環境での利用がおすすめです。また、コストの他に初期セットアップの工数やメンテナンス作業を考えるとクラウドの方がハードルは低いケースが多いです。

※利用要件(業界規制やデータの機密性)によって異なります。オンプレミスが適している場合がありますので、特定のニーズや状況によって選定いただくことをおすすめします。

NVIDIA DGX™ A100の仕様、特長とは?

DGX™ A100(640GB)は、これまで説明してきたA100 Tensor Core GPU(80GB) を8基搭載したAI専用のスーパーコンピュータで、以下の仕様と特長があります。

<仕様>

項目

内容

GPU

A100 Tensor Core GPU ×8

メモリ

640 GB

AIパフォーマンス

5 PFLOPS

INT8

10 POPS

メモリ帯域幅

2 TB/s 

消費電力

6.5 kW(最大)

<特長>

  • DGX™ A100は、単純で小さなジョブだけでなく、大規模かつ非常に複雑なジョブにも対応
  • 5 PFLOPSのAIパフォーマンスを発揮
  • 640GBならビッグデータ分析ベンチマークでCPUより最大83倍のパフォーマンスを発揮

今後も、性能を向上した新モデルが次々と登場してくることが予想されますが、A100は依然として多くのユースケースにおいて有用な選択肢です。コストパフォーマンスや蓄積されたノウハウからくる導入の容易さもあり、多くの企業がA100を継続的に活用していくでしょう。

ソフトバンクの取組み

ソフトバンクは、国内最大級のAI計算基盤を目指し、GPUインフラの大規模な拡充を進めています。2024年10月には、最新世代の「NVIDIA Hopper™ GPU」を約4,000基導入し、既存の「NVIDIA Ampere™ GPU」(約2,000基)とあわせて、全体で約6,000基・4.7EFLOPS(エクサフロップス)の計算能力を実現しました。

参考 「NVIDIA Hopper GPU」を搭載したAI計算基盤

今後は、NVIDIAの最新アーキテクチャ「Blackwell」を採用した「NVIDIA DGX™ B200」システムを活用し、2025年度にはGPUを合計約1万基、計算能力25.7EFLOPSまで増強する計画です。これにより、生成AIや大規模言語モデル(LLM)、マルチモーダルAIなど、最先端AI開発の基盤として国内外の企業・研究機関に強力な計算リソースを提供していきます。

AIや生成AI開発、LLMの学習・推論、研究用途まで、パワフルなGPU計算資源をお探しの方は、ぜひソフトバンクへお問い合わせください!

GPUに関するお問い合わせ

導入を検討のお客様向けのお問い合わせフォームはこちらから

おすすめの記事

条件に該当するページがございません