top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA Mengumumkan Peningkatan Kinerja TensorRT-LLM yang Signifikan

Generatived

5/12/23, 09.42

TensorRT-LLM NVIDIA telah mencapai kemajuan signifikan, sehingga menghasilkan peningkatan kinerja inferensi secara signifikan untuk model bahasa skala besar (LLM). Peningkatan terbaru pada GPU NVIDIA H200 meningkatkan kecepatan Llama 2 70B LLM sebesar 6,7x, memungkinkan model yang lebih besar seperti Falcon-180B berjalan pada satu GPU. Kecepatan Llama 2 70B yang lebih cepat disebabkan oleh optimalisasi teknologi yang dikenal sebagai Grouped Query Attention (GQA), yang merupakan perpanjangan dari teknologi perhatian multi-head yang merupakan lapisan kunci di Llama 2 70B.

Falcon-180B adalah salah satu model bahasa open source berskala besar yang terbesar dan paling akurat, dan sebelumnya memerlukan setidaknya delapan GPU NVIDIA A100 Tensor Core untuk dapat dijalankan. Namun, kemajuan dalam TensorRT-LLM INT4 AWQ khusus memungkinkannya berjalan sepenuhnya pada satu GPU Tensor Core H200. GPU tersebut dilaporkan memiliki memori HBM3e terbaru sebesar 141 GB dengan bandwidth memori hampir 5 TB/dtk.

Versi terbaru TensorRT-LLM telah meningkatkan kernel Grouped Query Attention (GQA) selama fase pembuatan, memberikan peningkatan kinerja hingga 6,7x pada H200 dibandingkan dengan jaringan yang sama yang berjalan pada GPU NVIDIA A200. GQA yang digunakan di Llama 2 70B adalah jenis Multi-Head Attention (MHA) yang mengelompokkan kepala nilai kunci (KV), sehingga menghasilkan kepala KV yang lebih sedikit dibandingkan kepala kueri (Q). Implementasi khusus MHA ini mendukung GQA, multi-queryattention (MQA), dan MHA standar, memanfaatkan NVIDIA Tensor Core dalam fase pembuatan dan konteks, serta memberikan kinerja superior pada GPU NVIDIA.

Rilis terbaru TensorRT-LLM mengimplementasikan kernel khusus untuk AWQ dan memanfaatkan teknologi ini dengan menggunakan teknologi Hopper Tensor Core terbaru untuk melakukan komputasi dengan presisi FP8 pada GPU NVIDIA Hopper, bukan FP16. Pendekatan ini memungkinkan AWQ mengurangi penggunaan memori sekaligus menjaga akurasi lebih tinggi dibandingkan metode 4-bit lainnya. Hasilnya menunjukkan bahwa seluruh model Falcon-180B dapat ditampung pada satu H200 dan menjalankan model dengan throughput inferensi yang sangat baik hingga 800 token/detik. saus:

Bagikan artikel ini:

Tin tức mới nhất
Wearable Devices Meluncurkan Ekosistem AI Neural ai6 Labs

Wearable Devices Meluncurkan Ekosistem AI Neural ai6 Labs

19/2/26, 00.00

Di Austin, Texas, tantangan signifikan telah diidentifikasi dalam bidang kecerdasan buatan (AI) seiring perkembangannya menuju kemampuan yang lebih otonom.

Fusemachines Meluncurkan Program Fellowship AI Tahun ke-9

Fusemachines Meluncurkan Program Fellowship AI Tahun ke-9

19/2/26, 00.00

Fusemachines Inc., penyedia teknologi AI perusahaan terkemuka, telah mengumumkan dimulainya tahun ke-9 Program Fellowship AI-nya.

Qodo Memperkenalkan Sistem Aturan Pengkodean Dinamis Berbasis AI

Qodo Memperkenalkan Sistem Aturan Pengkodean Dinamis Berbasis AI

19/2/26, 00.00

Qodo telah meluncurkan Sistem Aturan inovatif yang dirancang untuk meningkatkan tata kelola AI dalam pengembangan perangkat lunak.

ZETA Meluncurkan Platform Integrasi AI untuk E-commerce

ZETA Meluncurkan Platform Integrasi AI untuk E-commerce

19/2/26, 00.00

ZETA telah mengumumkan peluncuran 'ZETA LINK for AI,' sebuah platform baru yang dirancang untuk memfasilitasi integrasi layanan AI generatif, seperti chatbot AI

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
Wearable Devices Meluncurkan Ekosistem AI Neural ai6 Labs

Wearable Devices Meluncurkan Ekosistem AI Neural ai6 Labs

19/2/26, 00.00

Di Austin, Texas, tantangan signifikan telah diidentifikasi dalam bidang kecerdasan buatan (AI) seiring perkembangannya menuju kemampuan yang lebih otonom.

Fusemachines Meluncurkan Program Fellowship AI Tahun ke-9

Fusemachines Meluncurkan Program Fellowship AI Tahun ke-9

19/2/26, 00.00

Fusemachines Inc., penyedia teknologi AI perusahaan terkemuka, telah mengumumkan dimulainya tahun ke-9 Program Fellowship AI-nya.

Qodo Memperkenalkan Sistem Aturan Pengkodean Dinamis Berbasis AI

Qodo Memperkenalkan Sistem Aturan Pengkodean Dinamis Berbasis AI

19/2/26, 00.00

Qodo telah meluncurkan Sistem Aturan inovatif yang dirancang untuk meningkatkan tata kelola AI dalam pengembangan perangkat lunak.

ZETA Meluncurkan Platform Integrasi AI untuk E-commerce

ZETA Meluncurkan Platform Integrasi AI untuk E-commerce

19/2/26, 00.00

ZETA telah mengumumkan peluncuran 'ZETA LINK for AI,' sebuah platform baru yang dirancang untuk memfasilitasi integrasi layanan AI generatif, seperti chatbot AI

bottom of page