GMOインターネットグループは、2024年12月にリリース予定の生成AI向けのGPUクラウドサービスに「NVIDIA H200 TensorコアGPU(以下、NVIDIA H200 GPU)」と「NVIDIA Spectrum-Xイーサネットネットワークプラットフォーム」を採用したと発表。
NVIDIA Spectrum-XはAIワークロード専用に設計されたイーサネットファブリックであり、生成AIネットワークのパフォーマンスを飛躍的に向上させることが期待される。大規模言語モデルの開発・研究者向けにGPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化された「NVIDIA H200 GPU」の国内最速提供に加え、Spectrum-Xの採用により、顧客の大規模言語モデルの開発における期間短縮とコスト削減を実現する。
背景
データセンター規模で運用され、ユニークなネットワーク特性を示す生成AIにおいては、従来のイーサネットネットワーキングはAIの高性能要求を満たすには不十分であり、NVIDIAはこれを解決するため、AI向けに最適化されたイーサネットファブリックを開発した。Spectrum-Xは、生成AIインフラのネットワーク性能を飛躍的に向上させ、高速かつ安定したネットワーク環境が不可欠であることから採用に至った。
Spectrum-X の特徴と利点
Spectrum-XはAI向けに構築されたイーサネットファブリックで、従来のイーサネットファブリックと比べてネットワーク性能を1.6倍に向上させる。NVIDIA Spectrum SN5600イーサネットスイッチとNVIDIA BlueField-3 SuperNICを特徴とするSpectrum-Xは、生成AI向けのGPUクラウドサービスに必要なパフォーマンスと機能を備えたエンドツーエンドの接続性で、適応ルーティングと混雑制御を活用し、AIに最適化された最高性能のイーサネットネットワーキングを提供する。
NVIDIA Spectrum SN5600イーサネットスイッチは、AI 向けの毎秒51Tbイーサネットスイッチであり、生成AI向けに、ネットワークの混雑を最小限に抑えながら、大規模で負荷の高いデータスループットを提供する。きめ細かなルーティングテクノロジーにより、ネットワークインフラを常に最大限に活用できる。
BlueField-3 SuperNICは、ネットワーク集約型の超並列コンピューティング向けに設計されており、GPU サーバー間で最大毎秒400GbのRDMA over Converged Ethernet (RoCE) ネットワーク接続を提供し、クラスタ内のネットワークにおける大規模言語モデルの開発パフォーマンスを向上させる。Spectrum-Xを採用することより、顧客のAI開発期間の短縮とコスト削減を実現する。
今後の展望
GMOインターネットグループは、NVIDIA Spectrum-Xの採用により、生成AI向けのGPUクラウドサービスの性能をさらに強化し、日本国内のAI産業を支援する。これにより、AI研究者やスタートアップは、より効率的かつ経済的にAIソリューションの開発と展開を行うことが可能となる。GMOインターネットグループは、今後も最新技術を積極的に導入し、より高品質な生成AI向けのGPUクラウドサービスの提供に努めていく。そして、日本のAI産業の発展、ひいては社会全体の発展に貢献していく。
生成AI向けGPUクラウドサービスについて
GMOインターネットグループのGPUクラウドサービスは、毎秒4.8テラバイト (TB/s) で141ギガバイト (GB) の HBM3e メモリを提供する初の GPUである「NVIDIA H200 GPU」を搭載予定。これは、「NVIDIA H100 Tensor コア GPU」の2倍近い容量で、メモリ帯域幅は約1.4倍。「NVIDIA H200 GPU」の大容量かつ高速なメモリは、生成AIとLLMの開発効率を向上・開発コストを低減し、生成AIモデルの開発力を底上げする。