top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA Mengumumkan Peningkatan Kinerja TensorRT-LLM yang Signifikan

Generatived

5/12/23, 09.42

TensorRT-LLM NVIDIA telah mencapai kemajuan signifikan, sehingga menghasilkan peningkatan kinerja inferensi secara signifikan untuk model bahasa skala besar (LLM). Peningkatan terbaru pada GPU NVIDIA H200 meningkatkan kecepatan Llama 2 70B LLM sebesar 6,7x, memungkinkan model yang lebih besar seperti Falcon-180B berjalan pada satu GPU. Kecepatan Llama 2 70B yang lebih cepat disebabkan oleh optimalisasi teknologi yang dikenal sebagai Grouped Query Attention (GQA), yang merupakan perpanjangan dari teknologi perhatian multi-head yang merupakan lapisan kunci di Llama 2 70B.

Falcon-180B adalah salah satu model bahasa open source berskala besar yang terbesar dan paling akurat, dan sebelumnya memerlukan setidaknya delapan GPU NVIDIA A100 Tensor Core untuk dapat dijalankan. Namun, kemajuan dalam TensorRT-LLM INT4 AWQ khusus memungkinkannya berjalan sepenuhnya pada satu GPU Tensor Core H200. GPU tersebut dilaporkan memiliki memori HBM3e terbaru sebesar 141 GB dengan bandwidth memori hampir 5 TB/dtk.

Versi terbaru TensorRT-LLM telah meningkatkan kernel Grouped Query Attention (GQA) selama fase pembuatan, memberikan peningkatan kinerja hingga 6,7x pada H200 dibandingkan dengan jaringan yang sama yang berjalan pada GPU NVIDIA A200. GQA yang digunakan di Llama 2 70B adalah jenis Multi-Head Attention (MHA) yang mengelompokkan kepala nilai kunci (KV), sehingga menghasilkan kepala KV yang lebih sedikit dibandingkan kepala kueri (Q). Implementasi khusus MHA ini mendukung GQA, multi-queryattention (MQA), dan MHA standar, memanfaatkan NVIDIA Tensor Core dalam fase pembuatan dan konteks, serta memberikan kinerja superior pada GPU NVIDIA.

Rilis terbaru TensorRT-LLM mengimplementasikan kernel khusus untuk AWQ dan memanfaatkan teknologi ini dengan menggunakan teknologi Hopper Tensor Core terbaru untuk melakukan komputasi dengan presisi FP8 pada GPU NVIDIA Hopper, bukan FP16. Pendekatan ini memungkinkan AWQ mengurangi penggunaan memori sekaligus menjaga akurasi lebih tinggi dibandingkan metode 4-bit lainnya. Hasilnya menunjukkan bahwa seluruh model Falcon-180B dapat ditampung pada satu H200 dan menjalankan model dengan throughput inferensi yang sangat baik hingga 800 token/detik. saus:

Bagikan artikel ini:

Tin tức mới nhất
ディスカバリーズAI学習データ評価開��始

ディスカバリーズAI学習データ評価開始

20/2/26, 00.00

ディスカバリーズ(東京都港区)は、企業の生産性向上を目指し「データスコア評価ソリューション」の提供を開始した。

LayerX AIプラットフォーム導入UFJ

LayerX AIプラットフォーム導入UFJ

20/2/26, 00.00

LayerX(東京都中央区)が開発したAIプラットフォーム「Ai Workforce」が、三菱UFJ銀行に導入された。

zeteoh空間AIで製造現場効率化

zeteoh空間AIで製造現場効率化

20/2/26, 00.00

zeteoh(東京都中央区)は、製造現場の「人・ロボット・資材」の動きをリアルタイムで把握する「空間AI」技術で特許を取得した。

コレックHD子会社AIメディア改善実証

コレックHD子会社AIメディア改善実証

20/2/26, 00.00

コレックホールディングス(東京都豊島区)の子会社サンジュウナナド(東京都豊島区)は、生成AIを活用したメディア開発プロセスの高度化・迅速化プロジェクトの実証フェーズとして、Webメディアに生成AIコンテンツを導入し、UX改善効果を検証すると発表した。

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
ディスカバリーズAI学習データ評価開始

ディスカバリーズAI学習データ評価開始

20/2/26, 00.00

ディスカバリーズ(東京都港区)は、企業の生産性向上を目指し「データスコア評価ソリューション」の提供を開始した。

LayerX AIプラットフォーム導入UFJ

LayerX AIプラットフォーム導入UFJ

20/2/26, 00.00

LayerX(東京都中央区)が開発したAIプラットフォーム「Ai Workforce」が、三菱UFJ銀行に導入された。

zeteoh空間AIで製造現場効率化

zeteoh空間AIで製造現場効率化

20/2/26, 00.00

zeteoh(東京都中央区)は、製造現場の「人・ロボット・資材」の動きをリアルタイムで把握する「空間AI」技術で特許を取得した。

コレックHD子会社AIメディア改善実証

コレックHD子会社AIメディア改善実証

20/2/26, 00.00

コレックホールディングス(東京都豊島区)の子会社サンジュウナナド(東京都豊島区)は、生成AIを活用したメディア開発プロセスの高度化・迅速化プロジェクトの実証フェーズとして、Webメディアに生成AIコンテンツを導入し、UX改善効果を検証すると発表した。

bottom of page