Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

NVIDIA Mengumumkan Peningkatan Kinerja TensorRT-LLM yang Signifikan
Generatived
5/12/23, 09.42
TensorRT-LLM NVIDIA telah mencapai kemajuan signifikan, sehingga menghasilkan peningkatan kinerja inferensi secara signifikan untuk model bahasa skala besar (LLM). Peningkatan terbaru pada GPU NVIDIA H200 meningkatkan kecepatan Llama 2 70B LLM sebesar 6,7x, memungkinkan model yang lebih besar seperti Falcon-180B berjalan pada satu GPU. Kecepatan Llama 2 70B yang lebih cepat disebabkan oleh optimalisasi teknologi yang dikenal sebagai Grouped Query Attention (GQA), yang merupakan perpanjangan dari teknologi perhatian multi-head yang merupakan lapisan kunci di Llama 2 70B.
Falcon-180B adalah salah satu model bahasa open source berskala besar yang terbesar dan paling akurat, dan sebelumnya memerlukan setidaknya delapan GPU NVIDIA A100 Tensor Core untuk dapat dijalankan. Namun, kemajuan dalam TensorRT-LLM INT4 AWQ khusus memungkinkannya berjalan sepenuhnya pada satu GPU Tensor Core H200. GPU tersebut dilaporkan memiliki memori HBM3e terbaru sebesar 141 GB dengan bandwidth memori hampir 5 TB/dtk.
Versi terbaru TensorRT-LLM telah meningkatkan kernel Grouped Query Attention (GQA) selama fase pembuatan, memberikan peningkatan kinerja hingga 6,7x pada H200 dibandingkan dengan jaringan yang sama yang berjalan pada GPU NVIDIA A200. GQA yang digunakan di Llama 2 70B adalah jenis Multi-Head Attention (MHA) yang mengelompokkan kepala nilai kunci (KV), sehingga menghasilkan kepala KV yang lebih sedikit dibandingkan kepala kueri (Q). Implementasi khusus MHA ini mendukung GQA, multi-queryattention (MQA), dan MHA standar, memanfaatkan NVIDIA Tensor Core dalam fase pembuatan dan konteks, serta memberikan kinerja superior pada GPU NVIDIA.
Rilis terbaru TensorRT-LLM mengimplementasikan kernel khusus untuk AWQ dan memanfaatkan teknologi ini dengan menggunakan teknologi Hopper Tensor Core terbaru untuk melakukan komputasi dengan presisi FP8 pada GPU NVIDIA Hopper, bukan FP16. Pendekatan ini memungkinkan AWQ mengurangi penggunaan memori sekaligus menjaga akurasi lebih tinggi dibandingkan metode 4-bit lainnya. Hasilnya menunjukkan bahwa seluruh model Falcon-180B dapat ditampung pada satu H200 dan menjalankan model dengan throughput inferensi yang sangat baik hingga 800 token/detik. saus:
Bagikan artikel ini:
Tin tức mới nhất
Gemini、 Google AIを活用したカスタムトラック作成を開始
20/2/26, 00.00
Geminiは、ユーザーが説明文を入力するか写真をアップロードするだけで、カスタム音楽トラックを作成できる新機能を導入しました。
Google、グローバルAIアクセス強化イニシアチブを発表
20/2/26, 00.00
Googleは、AI技術への世界的なアクセス向上への取り組みを発表し、様々な分野における課題解決のためにこれらのツールが広く利用可能であることの重要性を強調しました。
Sarvam AI と NVIDIA が多言語 AI モデルを加速
20/2/26, 00.00
インド・ベンガルールのAIスタートアップ企業Sarvam AIは、インドの多様な言語ニーズに応えるため、大規模な多言語基盤モデルを構築するという野心的なプロジェクトに着手しました。
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Gemini、 Google AIを活用したカスタムトラック作成を開始
20/2/26, 00.00
Geminiは、ユーザーが説明文を入力するか写真をアップロードするだけで、カスタム音楽トラックを作成できる新機能を導入しました。
Google、グローバルAIアクセス強化イニシアチブを発表
20/2/26, 00.00
Googleは、AI技術への世界的なアクセス向上への取り組みを発表し、様々な分野における課題解決のためにこれらのツールが広く利用可能であることの重要性を強調しました。
Sarvam AI と NVIDIA が多言語 AI モデルを加速
20/2/26, 00.00
インド・ベンガルールのAIスタートアップ企業Sarvam AIは、インドの多様な言語ニーズに応えるため、大規模な多言語基盤モデルを構築するという野心的なプロジェクトに着手しました。




%20(1).webp)

