top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA Mengumumkan Peningkatan Kinerja TensorRT-LLM yang Signifikan

Generatived

5/12/23, 09.42

TensorRT-LLM NVIDIA telah mencapai kemajuan signifikan, sehingga menghasilkan peningkatan kinerja inferensi secara signifikan untuk model bahasa skala besar (LLM). Peningkatan terbaru pada GPU NVIDIA H200 meningkatkan kecepatan Llama 2 70B LLM sebesar 6,7x, memungkinkan model yang lebih besar seperti Falcon-180B berjalan pada satu GPU. Kecepatan Llama 2 70B yang lebih cepat disebabkan oleh optimalisasi teknologi yang dikenal sebagai Grouped Query Attention (GQA), yang merupakan perpanjangan dari teknologi perhatian multi-head yang merupakan lapisan kunci di Llama 2 70B.

Falcon-180B adalah salah satu model bahasa open source berskala besar yang terbesar dan paling akurat, dan sebelumnya memerlukan setidaknya delapan GPU NVIDIA A100 Tensor Core untuk dapat dijalankan. Namun, kemajuan dalam TensorRT-LLM INT4 AWQ khusus memungkinkannya berjalan sepenuhnya pada satu GPU Tensor Core H200. GPU tersebut dilaporkan memiliki memori HBM3e terbaru sebesar 141 GB dengan bandwidth memori hampir 5 TB/dtk.

Versi terbaru TensorRT-LLM telah meningkatkan kernel Grouped Query Attention (GQA) selama fase pembuatan, memberikan peningkatan kinerja hingga 6,7x pada H200 dibandingkan dengan jaringan yang sama yang berjalan pada GPU NVIDIA A200. GQA yang digunakan di Llama 2 70B adalah jenis Multi-Head Attention (MHA) yang mengelompokkan kepala nilai kunci (KV), sehingga menghasilkan kepala KV yang lebih sedikit dibandingkan kepala kueri (Q). Implementasi khusus MHA ini mendukung GQA, multi-queryattention (MQA), dan MHA standar, memanfaatkan NVIDIA Tensor Core dalam fase pembuatan dan konteks, serta memberikan kinerja superior pada GPU NVIDIA.

Rilis terbaru TensorRT-LLM mengimplementasikan kernel khusus untuk AWQ dan memanfaatkan teknologi ini dengan menggunakan teknologi Hopper Tensor Core terbaru untuk melakukan komputasi dengan presisi FP8 pada GPU NVIDIA Hopper, bukan FP16. Pendekatan ini memungkinkan AWQ mengurangi penggunaan memori sekaligus menjaga akurasi lebih tinggi dibandingkan metode 4-bit lainnya. Hasilnya menunjukkan bahwa seluruh model Falcon-180B dapat ditampung pada satu H200 dan menjalankan model dengan throughput inferensi yang sangat baik hingga 800 token/detik. saus:

Bagikan artikel ini:

Tin tức mới nhất
Anker Jepang meluncurkan layanan telepon berbasis AI.

Anker Jepang meluncurkan layanan telepon berbasis AI.

19/2/26, 00.00

Anker Japan (Minato-ku, Tokyo) memperluas fungsionalitas sistem dukungan pelanggan AI-nya, "Anker AI Assistant," yang dikembangkan berdasarkan ChatGPT.

Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan

Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan

19/2/26, 00.00

Teikoku Number One Research LLC (Shibuya-ku, Tokyo) telah meluncurkan layanan "Diagnosis AI Mandiri No. 1", yang memanfaatkan AI.

Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI

Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI

19/2/26, 00.00

Scope (Chiyoda-ku, Tokyo) dan Polaris.AI (Bunkyo-ku, Tokyo) telah mengembangkan "SCOPY," sebuah layanan diagnostik lantai penjualan berbasis AI.

Program Dukungan Startup AI Bright Data

Program Dukungan Startup AI Bright Data

19/2/26, 00.00

Bright Data (lokasi kantor pusat tidak disebutkan) telah meluncurkan program baru untuk startup AI yang menawarkan hingga $20.000 dalam bentuk kredit platform

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
Anker Jepang meluncurkan layanan telepon berbasis AI.

Anker Jepang meluncurkan layanan telepon berbasis AI.

19/2/26, 00.00

Anker Japan (Minato-ku, Tokyo) memperluas fungsionalitas sistem dukungan pelanggan AI-nya, "Anker AI Assistant," yang dikembangkan berdasarkan ChatGPT.

Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan

Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan

19/2/26, 00.00

Teikoku Number One Research LLC (Shibuya-ku, Tokyo) telah meluncurkan layanan "Diagnosis AI Mandiri No. 1", yang memanfaatkan AI.

Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI

Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI

19/2/26, 00.00

Scope (Chiyoda-ku, Tokyo) dan Polaris.AI (Bunkyo-ku, Tokyo) telah mengembangkan "SCOPY," sebuah layanan diagnostik lantai penjualan berbasis AI.

Program Dukungan Startup AI Bright Data

Program Dukungan Startup AI Bright Data

19/2/26, 00.00

Bright Data (lokasi kantor pusat tidak disebutkan) telah meluncurkan program baru untuk startup AI yang menawarkan hingga $20.000 dalam bentuk kredit platform

bottom of page