Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

NVIDIA、TensorRT-LLM パフォーマンスの大幅な向上を発表
Generatived
23/12/5 9:42
NVIDIAのTensorRT-LLMは大幅な進歩を遂げ、その結果、大規模言語モデル(LLM)の推論パフォーマンスが大幅に向上した。NVIDIA H200 GPUの最新の機能強化により、Llama 2 70B LLMの速度が6.7倍向上し、Falcon-180Bなどの大型モデルを単一のGPUで実行できるようになった。Llama 2 70Bの高速化は、Llama 2 70Bの重要な層であるマルチヘッドアテンション技術の拡張であるGrouped Query Attention(GQA)として知られる技術の最適化によるものだという。
Falcon-180Bは、最大かつ最も正確なオープンソース大規模言語モデルの1つであり、以前は実行するには少なくとも8つのNVIDIA A100 Tensor Core GPUが必要だった。ただし、カスタムINT4 AWQのTensorRT-LLMの進歩により、単一のH200 Tensor Core GPU上で完全に実行できるようになった。このGPUは、ほぼ5 TB/秒のメモリー帯域幅を備えた141 GBの最新のHBM3eメモリーを備えているという。
TensorRT-LLMの最新バージョンは、生成フェーズでGrouped Query Attention(GQA)カーネルが改善されており、NVIDIA A100 GPUで実行されている同じネットワークと比較して、H200で最大6.7倍のパフォーマンス向上を実現する。Llama 2 70Bで使用されるGQAは、key-value(KV)ヘッドをグループ化するマルチヘッドアテンション(MHA)の一種で、結果としてクエリー(Q)ヘッドよりもKVヘッドの数が少なくなる。このMHAのカスタム実装は、GQA、multi-query attention(MQA)、および標準MHAをサポートし、生成フェーズとコンテキストフェーズでNVIDIA Tensor Coreを活用し、NVIDIA GPUで優れたパフォーマンスを実現するという。
TensorRT-LLMの最新リリースでは、AWQ用のカスタムカーネルが実装されており、最新のHopper Tensor Coreテクノロジーを使用して、FP16ではなくNVIDIA Hopper GPUでFP8精度で計算を実行することで、この技術をさらに一歩進めている。このアプローチにより、AWQはメモリー使用量を削減しながら、他の4ビット方式よりも高い精度を維持できる。結果は、Falcon-180Bモデル全体が1台のH200に適合し、最大800トークン/秒の優れた推論スループットでモデルを実行できることを示している。ソース:
最新のニュース
Gemini、 Google AIを活用したカスタムトラック作成を開始
26/2/20 0:00
Geminiは、ユーザーが説明文を入力するか写真をアップロードするだけで、カスタム音楽トラックを作成できる新機能を導入しました。
Google、グローバルAIアクセス強化イニシアチブを発表
26/2/20 0:00
Googleは、AI技術への世界的なアクセス向上への取り組みを発表し、様々な分野における課題解決のためにこれらのツールが広く利用可能であることの重要性を強調しました。
Sarvam AI と NVIDIA が多言語 AI モデルを加速
26/2/20 0:00
インド・ベンガルールのAIスタートアップ企業Sarvam AIは、インドの多様な言語ニーズに応えるため、大規模な多言語基盤モデルを構築するという野心的なプロジェクトに着手しました。
Copyright © 2024 Generatived - All right Reserved.
ニュース
Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。
最新のニュース
Gemini、 Google AIを活用したカスタムトラック作成を開始
26/2/20 0:00
Geminiは、ユーザーが説明文を入力するか写真をアップロードするだけで、カスタム音楽トラックを作成できる新機能を導入しました。
Google、グローバルAIアクセス強化イニシアチブを発表
26/2/20 0:00
Googleは、AI技術への世界的なアクセス向上への取り組みを発表し、様々な分野における課題解決のためにこれらのツールが広く利用可能であることの重要性を強調しました。
Sarvam AI と NVIDIA が多言語 AI モデルを加速
26/2/20 0:00
インド・ベンガルールのAIスタートアップ企業Sarvam AIは、インドの多様な言語ニーズに応えるため、大規模な多言語基盤モデルを構築するという野心的なプロジェクトに着手しました。




%20(1).webp)

