ソフトバンクのAI計算基盤を活用したクラウドサービス 「AIデータセンター GPUサーバー」を10月8日に提供開始
2025年10月7日
ソフトバンク株式会社
ソフトバンク株式会社(以下「ソフトバンク」)は、ソフトバンクのAI(人工知能)計算基盤として活用しているGPUシステムを、お客さま専用のリソースとして1台から柔軟にご利用いただけるクラウドサービス「AIデータセンター GPUサーバー」の提供を、2025年10月8日に開始します。
「AIデータセンター GPUサーバー」は、「NVIDIA Ampere GPU」または「NVIDIA Hopper GPU」で構成されたAIコンピューティング プラットフォーム「NVIDIA DGX システム」を、生成AIの開発や学習を進める企業や研究機関などが、専用のリソースとして利用できるクラウドサービスです。1台から複数台まで柔軟にご利用いただけることに加え、最短7日間からの短期利用も可能です。これにより、大規模言語モデル(LLM)の学習をはじめ、生成AIを活用したデータ解析やシミュレーションなど、利用者の多様なニーズに対応します。
ソフトバンクは、今後もお客さまの AI 活用を総合的に支援するソリューションを順次提供していきます。
■主な特長
・GPUシステムを専有利用可能
高速回線(InfiniBand)で接続されたGPUクラスターを、GPUシステム1台から専有して利用できます。複数台をご利用いただく場合、クラスターを構築した状態で提供するため、大規模なAI開発や科学計算などにすぐご活用いただけます。
・ニーズに合わせた柔軟な契約形態
最短7日間から年間契約までの幅広い利用期間を選択できることに加え、GPUシステムの台数やストレージ容量もニーズに合わせて柔軟に選択できます。
・開発支援ソフトウエアを標準搭載
企業向けに最適化されたAIソフトウエアプラットフォーム「NVIDIA AI Enterprise」に加えて、計算処理やリソース管理を担うジョブスケジューラー「Slurm」がセットアップされており、複雑な環境設定なしで、すぐにご利用いただけます。
■サービス仕様
| サービス | NVIDIA DGX H100 プラン | NVIDIA DGX A100 プラン | |
|---|---|---|---|
| ハード ウェア |
GPUシステム | GPU: NVIDIA H100 Tensor Core GPU[80GB] x 8 GPUメモリ: 総計 640 GB GPUノード間通信: InfiniBand 400Gbps x 8 |
GPU: NVIDIA A100 Tensor Core GPU[80GB] x 8 GPUメモリ: 総計 640 GB GPUノード間通信: InfiniBand 200Gbps x 8 |
| ログイン サーバー ※VM提供 |
CPU: 8 Core | ||
| メモリ: 16GB | |||
| OS: Ubuntu | |||
| メイン ストレージ |
100GB~(100GB単位で選択) | ||
| ホーム領域 ストレージ |
10GB~(10GB単位で選択) | ||
| データストア ストレージ ※オプション |
100GB~(100GB単位で選択) | ||
| ソフトウェア | Slurm | ||
| NVIDIA AI Enterprise | |||
| NGC Private Container Registry | |||
| ネット ワーク |
インターネット | ベストエフォート | |
| 閉域 ネットワーク ※オプション |
SmartVPN | ||
| 提供価格 | 問い合わせ先 | ||
■サービスのURL
詳細はAIデータセンター GPUサーバーをご覧ください。
■2023年9月から稼働中のAI計算基盤
