top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

Sarvam AI と NVIDIA が多言語 AI モデルを加速

Generatived

26/2/20 0:00

インド・ベンガルールのAIスタートアップ企業Sarvam AIは、インドの多様な言語ニーズに応えるため、大規模な多言語基盤モデルを構築するという野心的なプロジェクトに着手しました。同社はNVIDIAと提携し、Sovereign 30Bモデルの性能向上を図り、厳しいレーテンシー目標の達成と推論効率の向上を目指しています。この協業により、NVIDIAのBlackwell GPUにおける推論速度は、NVIDIA H100 GPUのベースライン性能と比較して4倍に向上しました。

Sarvam AIとNVIDIAの共同エンジニアリングの取り組みにより、22のインド言語、英語、数学、そしてコードをサポートする基盤モデルの開発に成功しました。これらのモデルは、データから展開までをカバーするNVIDIAのAIプラットフォームを用いて最適化されており、高いパフォーマンスとローカライズされたAI機能を実現します。また、このパートナーシップにより、NeMoフレームワークやNeMo-RLなど、NVIDIAのNemotronライブラリでトレーニングされた新たなソブリン基盤モデルファミリーも誕生しました。

Sarvam AIのモデルは、ディープリーディングと言語密度のために設計されたMixture-of-Experts(MoE)アーキテクチャを採用しています。Sarvam 30Bモデルは19層の深さで128のエキスパートを擁し、Sarvam 100Bモデルは最大32層まで拡張可能です。両モデルとも、共通の特徴と特殊なタスクを処理するために、共通のエキスパート設計を採用しています。今回の協業では、これらのモデルをNVIDIAのHopper GPUとBlackwell GPU向けに最適化し、固有のサービス提供課題に対処することに注力しています。

Sarvam 30Bモデルの最適化プロセスでは、生の速度向上だけでなく、厳しいレーテンシー制約内での密度の最大化も考慮されました。チームは音声対音声エージェントのサービスレベル契約(SLA)を確立し、95パーセンタイルの最初のトークンまでの時間(TTFT)を1000ミリ秒未満、トークン間レーテンシー(ITL)を15ミリ秒未満とすることを目標としました。初期のパフォーマンス分析は、Sarvam 30Bアーキテクチャにとって重要な、KVキャッシュを基数ツリーとして管理するSGLang推論エンジンを用いて実施されました。チームは、MoEレイヤーのメモリ要件とコンピューティング要件のバランスを取りながら、モデルを2基のNVIDIA H100 SXM GPUに実装しました。

パフォーマンス分析の結果、SLAを満たすには、より深い最適化が必要であることが明らかになりました。チームは、32~64リクエストの同時実行範囲でボトルネックを特定し、NVIDIA Nsight Systemsを用いて実行トレースをキャプチャしました。最適化の対象として最もコストの高いカーネルを絞り込むことで、トランスフォーマー層の時間を34%削減しました。さらに、プリフィルとデコードの混合スケジューリングによってGPU使用率が向上し、分散サービングによってクリティカルパスのボトルネックが解消され、スループットが1.5倍向上しました。

エンドツーエンドのパフォーマンス向上は、カーネルの最適化、スケジューリング効率、そして分散型サービングによって実現しました。NVIDIA Blackwell GPU上でのSarvam 30Bモデルのパフォーマンスは、最大20PFLOPSのピークFP4演算性能と8TB/sのメモリ帯域幅を実現し、NVIDIA Blackwellアーキテクチャが生成AIを加速させるポテンシャルを実証しました。NVIDIA Model Optimizerを用いてモデルをNVFP4形式に量子化することで、特定の動作点において推論サービングのスループットが4倍に向上しました。

Sarvam AIとNVIDIAのコラボレーションは、モデル設計、カーネルエンジニアリング、スケジューリング戦略、量子化、そしてGPUアーキテクチャを相互最適化する潜在能力を示しています。その結果、国家レベルのワークロードに拡張可能な、より高速で経済的に実現可能かつ国家レベルで利用可能な推論スタックが実現します。このアプローチは、NVIDIAプラットフォーム上で大規模な実稼働レベルのAIシステムを構築する他のチームにとっての青写真となります。

この記事を共有:

最新のニュース
GenAi社AIエージェント提供開始

GenAi社AIエージェント提供開始

26/2/11 0:00

GenAi(東京都渋谷区)は、社内の書類や規定、マニュアルを一元化し、曖昧な質問にも根拠を持って最適な選択肢を提案するAIエージェント「GenAi WorkAgent」の提供を2026年2月9日から開始すると発表した。

AIシフト:焼肉きんぐAI自動応答導入

AIシフト:焼肉きんぐAI自動応答導入

26/2/11 0:00

AI Shift(東京都渋谷区)は、AIエージェント「AI Worker VoiceAgent」が物語コーポレーション(愛知県豊橋市)の「焼肉きんぐ」に導入されたと発表。

ミロクリエAIオフライン点検披露

ミロクリエAIオフライン点検披露

26/2/11 0:00

ミロクリエ(高知県南国市)は、東京ビッグサイトで開催される「FOODEX JAPAN 2026」にて、設備保全クラウド「ミロクルカルテ」の新オプション「ミロクルAIオフライン点検」α版を披露する。

ロゼッタAIサーバー導入最適化プラン

ロゼッタAIサーバー導入最適化プラン

26/2/11 0:00

ロゼッタ(東京都)は、法人サーバー導入の最適タイミングを予測するAIエージェント「Metareal IF」のプレミアムプランを提供開始。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
GenAi社AIエージェント提供開始

GenAi社AIエージェント提供開始

26/2/11 0:00

GenAi(東京都渋谷区)は、社内の書類や規定、マニュアルを一元化し、曖昧な質問にも根拠を持って最適な選択肢を提案するAIエージェント「GenAi WorkAgent」の提供を2026年2月9日から開始すると発表した。

AIシフト:焼肉きんぐAI自動応答導入

AIシフト:焼肉きんぐAI自動応答導入

26/2/11 0:00

AI Shift(東京都渋谷区)は、AIエージェント「AI Worker VoiceAgent」が物語コーポレーション(愛知県豊橋市)の「焼肉きんぐ」に導入されたと発表。

ミロクリエAIオフライン点検披露

ミロクリエAIオフライン点検披露

26/2/11 0:00

ミロクリエ(高知県南国市)は、東京ビッグサイトで開催される「FOODEX JAPAN 2026」にて、設備保全クラウド「ミロクルカルテ」の新オプション「ミロクルAIオフライン点検」α版を披露する。

ロゼッタAIサーバー導入最適化プラン

ロゼッタAIサーバー導入最適化プラン

26/2/11 0:00

ロゼッタ(東京都)は、法人サーバー導入の最適タイミングを予測するAIエージェント「Metareal IF」のプレミアムプランを提供開始。

bottom of page