最先端のAI技術でコミュニケーションに革新をもたらすDeepLは、NVIDIA DGX SuperPODを導入すると発表した。これによりAI翻訳技術およびコミュニケーションツールとしてのさらなるサービス強化を図る。
DeepLが導入したDGX SuperPODは、68台のNVIDIA DGX H100システムから構成され、供給元はDELTA Computer Products。DGX SuperPODは、DeepLのほかのサーバーとともに、スウェーデンにある再生可能エネルギーで駆動するグリーンデータセンターに設置する。
DeepLとNVIDIAは、クラスター速度を評価するためLINPACKベンチマークを用いて評価を実施。今回の評価結果は、2023年11月分の、世界でもっとも高速な商業用コンピュータシステム・トップ500リストに提出されるとのこと。
今回のNVIDIA DGX SuperPODの導入は、DeepLが大規模言語モデル(LLM)のトレーニングを通じて技術を発展させ、世界最先端のAI技術を搭載したコミュニケーションツールの開発を目指すことへの意思表示でもある。個々のサーバーが互いに連携してスーパーコンピューターを形成しているため、DeepLのプロダクトの根幹である高度なニューラルネットワークトレーニングの最適化が可能となる。
各DGXシステムには、NVIDIA H100 Tensor Core GPUが8基搭載され、サーバー内のGPU間通信はNVIDIA NVLinkを介して超高速で行われる。各サーバー間は、in-network computing技術に基づくNVIDIA Quantum-2 InfiniBandで接続されているため、クラスター内においてGPUは最大速度で通信することが可能。これにより、柔軟に性能を拡張でき、あらゆる構成においてコンピュータクラスターの効率的な使用ができるようになる。
NVIDIA DGX SuperPODにより、DeepLとその研究チームは、大規模言語モデルの市場投入までの時間を大幅に短縮できるようになるとのこと。