• <xmp id="om0om">
  • <table id="om0om"><noscript id="om0om"></noscript></table>
  • Data Center / Cloud / Edge

    NVIDIA が、NVIDIA DGX SuperPOD でかつてない速さで AI ファクトリーの構築を支援

    Reading Time: 2 minutes

    日本國內の非公開の場所にある巨大な部屋で、デジタル革命が起こっています。サーバー ラックが巨人のように立ち並び、その洗練されたフレームは無限の可能性を秘めた數千本のケーブルによって接続されています。

    昨年まで、この広大な AI ファクトリーは存在していませんでした。この施設は今、先進的なインフラを活用して進歩を推進し、AI と共存する社會の創造に根ざした、ソフトバンクの AI を活用したイノベーションのビジョンを支える體制を整えています。

    ソフトバンクにとって、導入を短縮することは単なる技術的な勝利を意味するものではありません。それは様々な競爭優位性をもたらします。AI スーパーコンピューティングの目まぐるしい世界では、スピードがすべてです。

    日本を代表するテクノロジ企業の 1 社であるソフトバンクは、NVIDIA と提攜してこのシステムを実現しました。両社は共同で世界的に最新鋭なコンピューティング クラスター 2 基を構築しました。これらのクラスターは記録的な速度で膨大な量のデータを処理し、ソフトバンクの子會社である SB Intuitions が開発する大規模言語モデル (LLM) の開発を推進させる體制を整えています。

    しかし、AI ファクトリーの構築は単にハードウェアを接続するだけの作業ではありません。すべてのケーブル、接続、コンポーネントが完璧に整合しなければならない、綿密に計畫された取り組みなのです。

    そこで、NVIDIA Infrastructure Specialists (NVIS) の出番です。NVIS は、精度と効率性をもって AI の導入を加速する専門家で構成されたチームです。NVIS は実績のある戦略を用いて、お客様がベアメタルを本番環境で稼働可能な AI インフラへと記録的な速さで実現するのを支援します。

    コラボレーションによるスピードアップ

    ソフトバンクが導入スケジュールの前倒しを要請してきた際、NVIDIA は野心的な目標を現実に変えるための支援をする準備ができていました。ソフトバンクの大規模 AI プラットフォームに関する経験は限られていましたが、同社の機敏性と NVIDIA の専門知識およびリファレンス アーキテクチャが組み合わさることで実現が保証されました。

    ソフトバンクの NVIDIA DGX SuperPOD 導入は綿密に計畫され実行されました。すべてのステップがマイルストーンとタイムラインにマッピングされ、プロジェクトはペース管理のために 2 つのクラスターに分割されました。

    ソフトバンクが當初の運用開始予定日より 10 日早い完成を要請した際、NVIS は新しい期限に合わせて調整を行いました。このような機敏な対応には、慎重なリソース管理、綿密な物流計畫、そして日々の調整が必要でした。

    數字がその成果を物語っています。數千本のケーブルや數百臺ものネットワーク スイッチが、DGX SuperPOD の中核となる強力なコンピューティング ノードである 510 臺の NVIDIA DGX B200 システムを接続しています。どちらのクラスターも、FP64 の精度において並外れたパフォーマンスを発揮しました。一方は 89.78 GFLOPS、もう一方は 91.94 GFLOPS を誇ります。これらは 1 秒間に処理できる膨大なデータ量を示す指標です。

    「これらの DGX SuperPOD クラスター全體に 510 臺の NVIDIA DGX システムを導入する精度とスピードは、専門知識とコラボレーションが合致した時に何が可能になるかを示しています」と、ソフトバンクの次世代技術開発本部 執行役員本部長である丹波 廣寅 氏は述べています。「このインフラは単に高速なだけでなく、日本の AI 開発における新たな基準を確立しています。」

    日本最大の AI コンピューティング インフラを擁することで、ソフトバンクは日本の AI エコシステムにおけるリーダーとしての地位を確固たるものにしています。

    正確さと機敏性で課題を克服

    もちろん、これほどの規模のプロジェクトが障害なしに進行することはありません。ソフトバンクの場合、電力供給の制約により、NVIS は一部のテストを営業時間外に実施する必要がありました。ネットワーク コンポーネントが原因で接続性の問題が発生した際、チームは創造的な解決策を見つけ、第 2 クラスターの部品を転用して第 1 クラスターをスケジュール通りに稼働させました。

    NVIDIA チームは、すべての課題をリアルタイムで綿密に追跡し解決することで、スケジュール通りの導入を確保しました。

    「これは単なる仕事ではありませんでした」と、チーム メンバーは語っています。「それはまるで F1 のピットクルーのようで、全員が息を合わせて作業し、私たち 1 人ひとりが日々節約することがソフトバンクにとってより大きな価値を意味することを理解していました」

    日本の AI の未來を切り拓く

    ソフトバンクの導入は技術的な成果以上の意味を持ちます。これは次世代の社會インフラ構築に向けた一歩であり、LLM 開発などの社內プロジェクトを加速し、日本全國の生成 AI 開発者によるより広範なエコシステムを実現するために不可欠なものです。

    稼働開始後、このプラットフォームは外部企業にもサービスを提供し、日本國內の AI 能力開発に貢獻することになります。

    「ソフトバンクの AI ファクトリーは日本にとって飛躍的な前進であり、イノベーションを加速し、日本の AI エコシステムの繁栄を後押しします」と丹波氏は述べています。

    NVIS の戦略: スピード、正確さ、コラボレーション

    ソフトバンクの導入は、大規模な AI プロジェクトを迅速かつ綿密に管理するために合理化されたアプローチである NVIS の戦略を実証しています。NVIS により、NVIDIA は日々數千基もの GPU を設置でき、巨大な AI センターを効率的な AI ファクトリーへと変貌させることができます。

    ソフトバンクの DGX SuperPOD の中核には、ボトルネックなしに膨大なデータ負荷を処理するように設計された NVIDIA Quantum-2 InfiniBand ネットワーキング プラットフォームがあります。 このネットワーク技術は、導入前のテストと検証を可能にするデータ センターの仮想レプリカである NVIDIA Air のデジタル ツイン機能と組み合わされることで、プロジェクトが計畫から実行まで円滑に行われました。

    CEO の計算: スピードが重要な理由

    NVIDIA の技術を採用する企業にとって、スピードは単に技術的なものではなく、戦略的なものです。新しい AI ファクトリーの稼働が早ければ早いほど、インサイトの獲得、業務の合理化、AI を活用した新たな製品の投入をより迅速に行うことができます。

    NVIDIA の社內分析では、一般的には 6 か月以上かかる設置時間をわずか 3 週間に短縮することができれば、大規模 AI システムの導入に伴うダウンタイムの長期化に起因するコストを最大 1 億 5,000 萬ドル削減することが可能であることが示されています。これは、8,000 基の GPU を搭載した 1,000 臺のサーバーを有するデータ センターの場合、NVIDIA が 1 日あたり約 100 萬ドルと計算する大規模導入の運用コストに基づいて試算されています。

    より迅速な導入により、お客様は LLM などのワークロードを遅延なく実行することで、より早期に収益を生み出すことも可能になります。NVIS によって解放される運用の 1 日 1 日が、100 萬ドルの費用発生の回避と、ダウンタイムにより失われかもしれない収益機會の獲得を意味します。

    DGX SuperPOD でより素早い構築を

    NVIDIA Infrastructure Specialists (NVIS) により DGX SuperPOD の導入を加速し、最初のトレーニングまでにかかる時間を通常の數分の一に短縮します。詳細については、AI Infrastructure Services | NVIDIA NVIS をご覧ください。


    関連情報


    翻訳に関する免責事項

    この記事は、「NVIDIA Helps Build AI Factories Faster Than Ever with NVIDIA DGX SuperPOD」の抄訳で、お客様の利便性のために機械翻訳によって翻訳されたものです。NVIDIA では、翻訳の正確さを期すために注意を払っておりますが、翻訳の正確性については保証いたしません。翻訳された記事の內容の正確性に関して疑問が生じた場合は、原典である英語の記事を參照してください。

    0

    Tags

    人人超碰97caoporen国产