Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

NVIDIA TensorRT-LLM memperkenalkan fungsionalitas pra-pengisian potongan yang efisien
Generatived
18/11/24, 04.30
NVIDIA telah memperkenalkan fitur-fitur baru pada TensorRT-LLM yang meningkatkan pemanfaatan GPU dan menyederhanakan proses penerapan untuk pengembang. Fitur ini, yang disebut pra-pengisian potongan, mengatasi tantangan komputasi yang dihadapi dalam fase inferensi pra-pengisian dan dekode tradisional. Dengan membagi token masukan menjadi beberapa bagian yang lebih kecil, sistem dapat menangani cache KV dengan lebih efisien, menangani beberapa permintaan secara bersamaan, dan mencegah kemacetan selama fase pra-pengisian.
Pendekatan pra-pengisian yang terpotong tidak hanya meningkatkan kinerja GPU, namun juga memungkinkan sistem mengelola konteks yang lebih panjang dan tingkat konkurensi yang lebih tinggi tanpa meningkatkan kebutuhan memori. Hal ini sangat bermanfaat karena memisahkan konsumsi memori dari panjang konteks permintaan masuk, sehingga panjang konteks yang lebih panjang dapat ditangani dengan lebih efisien.
Selain itu, NVIDIA telah memberikan kontribusi yang signifikan dalam menyederhanakan proses pembuatan mesin dengan menerapkan ukuran potongan dinamis. Fitur ini secara otomatis merekomendasikan ukuran potongan optimal berdasarkan metrik penggunaan GPU, sehingga menghilangkan kebutuhan pengembang untuk menentukan panjang input maksimum secara manual. Hasilnya, ukuran buffer aktivasi kini ditentukan oleh ukuran potongan yang dikonfigurasi, sehingga menghasilkan penggunaan memori yang lebih efisien saat runtime.
Pengenalan prefill potongan di TensorRT-LLM secara signifikan meningkatkan performa dan pemanfaatan sistem. Dengan meningkatkan paralelisme antara fase pra-pengisian dan dekode serta mengurangi waktu penyelesaian kueri, NVIDIA meningkatkan pengalaman pengguna. Pengembang yang tertarik untuk memanfaatkan fitur ini dapat mempelajari lebih lanjut, memulai, dan terus mengikuti pembaruan kinerja inferensi AI terbaru dengan dokumentasi GitHub NVIDIA.
Bagikan artikel ini:
Tin tức mới nhất
Presiden M-Mart mengumumkan penggunaan praktis AI.
14/1/26, 00.00
Pada tanggal 7 Januari tahun baru, M Mart (Shinjuku-ku, Tokyo) mengumumkan bahwa mereka telah mengembangkan dan menerapkan secara praktis sebuah AI interaktif bernama "President AI (Versi Internal)"
Dukungan metode pengembangan lapangan FYBE pertama.
14/1/26, 00.00
FYBE (Minato-ku, Tokyo) menganjurkan metode pengembangan "berbasis lapangan" untuk mengatasi tantangan di lokasi dalam bisnis baru dan penggunaan AI.
Penelitian Optimasi Biaya Generative AI Largegate
14/1/26, 00.00
Largegate (Tokyo) melakukan "Survei tentang Kondisi Sebenarnya Biaya dan Optimalisasi Generative AI " yang menargetkan 550 manajer bisnis yang menggunakan Generative AI .
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Presiden M-Mart mengumumkan penggunaan praktis AI.
14/1/26, 00.00
Pada tanggal 7 Januari tahun baru, M Mart (Shinjuku-ku, Tokyo) mengumumkan bahwa mereka telah mengembangkan dan menerapkan secara praktis sebuah AI interaktif bernama "President AI (Versi Internal)"
Dukungan metode pengembangan lapangan FYBE pertama.
14/1/26, 00.00
FYBE (Minato-ku, Tokyo) menganjurkan metode pengembangan "berbasis lapangan" untuk mengatasi tantangan di lokasi dalam bisnis baru dan penggunaan AI.
Penelitian Optimasi Biaya Generative AI Largegate
14/1/26, 00.00
Largegate (Tokyo) melakukan "Survei tentang Kondisi Sebenarnya Biaya dan Optimalisasi Generative AI " yang menargetkan 550 manajer bisnis yang menggunakan Generative AI .



%20(1).webp)


