ソフトバンクのAI計算基盤を活用したクラウドサービス 「AIデータセンター GPUサーバー」を10月8日に提供開始

2025年10月7日
ソフトバンク株式会社

ソフトバンク株式会社(以下「ソフトバンク」)は、ソフトバンクのAI(人工知能)計算基盤として活用しているGPUシステムを、お客さま専用のリソースとして1台から柔軟にご利用いただけるクラウドサービス「AIデータセンター GPUサーバー」の提供を、2025年10月8日に開始します。

「AIデータセンター GPUサーバー」は、「NVIDIA Ampere GPU」または「NVIDIA Hopper GPU」で構成されたAIコンピューティング プラットフォーム「NVIDIA DGX システム」を、生成AIの開発や学習を進める企業や研究機関などが、専用のリソースとして利用できるクラウドサービスです。1台から複数台まで柔軟にご利用いただけることに加え、最短7日間からの短期利用も可能です。これにより、大規模言語モデル(LLM)の学習をはじめ、生成AIを活用したデータ解析やシミュレーションなど、利用者の多様なニーズに対応します。

ソフトバンクは、今後もお客さまの AI 活用を総合的に支援するソリューションを順次提供していきます。

■主な特長

・GPUシステムを専有利用可能

高速回線(InfiniBand)で接続されたGPUクラスターを、GPUシステム1台から専有して利用できます。複数台をご利用いただく場合、クラスターを構築した状態で提供するため、大規模なAI開発や科学計算などにすぐご活用いただけます。

・ニーズに合わせた柔軟な契約形態

最短7日間から年間契約までの幅広い利用期間を選択できることに加え、GPUシステムの台数やストレージ容量もニーズに合わせて柔軟に選択できます。

・開発支援ソフトウエアを標準搭載

企業向けに最適化されたAIソフトウエアプラットフォーム「NVIDIA AI Enterprise」に加えて、計算処理やリソース管理を担うジョブスケジューラー「Slurm」がセットアップされており、複雑な環境設定なしで、すぐにご利用いただけます。

■サービス仕様

サービス NVIDIA DGX H100 プラン NVIDIA DGX A100 プラン
ハード
ウェア
GPUシステム GPU: NVIDIA H100 Tensor Core GPU[80GB] x 8
GPUメモリ: 総計 640 GB
GPUノード間通信: InfiniBand 400Gbps x 8
GPU: NVIDIA A100 Tensor Core GPU[80GB] x 8
GPUメモリ: 総計 640 GB
GPUノード間通信: InfiniBand 200Gbps x 8
ログイン
サーバー
※VM提供
CPU: 8 Core
メモリ: 16GB
OS: Ubuntu
メイン
ストレージ
100GB~(100GB単位で選択)
ホーム領域
ストレージ
10GB~(10GB単位で選択)
データストア
ストレージ
※オプション
100GB~(100GB単位で選択)
ソフトウェア Slurm
NVIDIA AI Enterprise
NGC Private Container Registry
ネット
ワーク
インターネット ベストエフォート
閉域
ネットワーク
※オプション
SmartVPN
提供価格 問い合わせ先

■サービスのURL

詳細はAIデータセンター GPUサーバーをご覧ください。

■2023年9月から稼働中のAI計算基盤