Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
%20(1).webp)
NVIDIA Mengumumkan Pembongkaran Cache KV untuk LLM
Generatived
22/9/25, 00.00
Seiring dengan semakin kompleksnya model AI, pengelolaan cache kunci-nilai (KV) selama inferensi menjadi semakin penting. Cache KV sangat penting untuk model bahasa skala besar (LLM) seperti GPT-OSS dan DeepSeek-R1 karena menyimpan data atensi yang penting untuk memproses perintah input. Namun, seiring bertambahnya panjang perintah, ukuran cache bertambah, membebani memori GPU yang terbatas dan mahal, serta berpotensi menciptakan kemacetan.
Untuk mengatasi masalah ini, pembaruan terbaru NVIDIA Dynamo memperkenalkan fitur pemindahan cache KV, yang memungkinkan cache dipindahkan dari memori GPU ke solusi penyimpanan yang lebih hemat biaya. Proses ini didukung oleh NVIDIA NIXL, sebuah pustaka transfer latensi rendah, yang memungkinkan pemindahan cache KV dengan cepat tanpa mengganggu proses inferensi. Pemindahan cache ini tidak hanya mengurangi kebutuhan memori GPU, tetapi juga memungkinkan jendela konteks yang lebih panjang dan peningkatan konkurensi pengguna, yang pada akhirnya menghasilkan biaya operasional yang lebih rendah.
Manfaat pembongkaran cache KV sangat signifikan bagi penyedia layanan inferensi. Pembongkaran cache KV memungkinkan dukungan untuk model dengan konteks yang diperluas tanpa mengorbankan ukuran prompt, mengurangi kebutuhan GPU tambahan, dan menghindari penghitungan ulang cache KV yang mahal. Hal ini mengurangi waktu respons dan meningkatkan pengalaman pengguna. Penyedia dapat mencapai throughput yang lebih tinggi dan biaya per token yang lebih rendah, sehingga meningkatkan skalabilitas dan efisiensi layanan mereka.
Faktanya, penyedia penyimpanan memanfaatkan pembongkaran cache KV untuk meningkatkan layanan mereka. Misalnya, Vast mendemonstrasikan integrasi performa tinggi dengan NVIDIA Dynamo, mencapai tingkat throughput yang luar biasa dan memastikan penyimpanan tidak menjadi hambatan. Demikian pula, uji lab WEKA menunjukkan bahwa Augmented Memory Grid-nya dapat mengalirkan cache KV ke GPU dengan kecepatan mendekati kecepatan memori, mengoptimalkan throughput token untuk beban kerja inferensi.
Secara keseluruhan, pemindahan cache KV menyediakan solusi berskala untuk mengelola tantangan inferensi dalam aplikasi Generative AI berskala besar, mengurangi biaya dan meningkatkan daya tanggap, memungkinkan penerapan yang lebih luas dan pemanfaatan model AI yang lebih efisien.
Bagikan artikel ini:
Tin tức mới nhất
NVIDIA Melaporkan Lonjakan Adopsi AI di Seluruh Industri
11/3/26, 00.00
NVIDIA Megatron Core telah menjadi kerangka kerja penting untuk melatih model bahasa berskala besar
TII Meningkatkan Core NVIDIA Megatron dengan Integrasi Falcon
11/3/26, 00.00
Microsoft telah meluncurkan gelombang ketiga Microsoft 365 Copilot, memperluas keragaman model dengan menyertakan Claude dan model OpenAI terbaru.
Microsoft Mengumumkan Ekspansi Microsoft 365 Copilot
11/3/26, 00.00
Laporan "State of AI" terbaru dari NVIDIA mengungkapkan lonjakan adopsi AI di berbagai industri, dengan lebih dari 3.200 peserta global memberikan wawasan tentang aplikasi
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
NVIDIA Melaporkan Lonjakan Adopsi AI di Seluruh Industri
11/3/26, 00.00
NVIDIA Megatron Core telah menjadi kerangka kerja penting untuk melatih model bahasa berskala besar
TII Meningkatkan Core NVIDIA Megatron dengan Integrasi Falcon
11/3/26, 00.00
Microsoft telah meluncurkan gelombang ketiga Microsoft 365 Copilot, memperluas keragaman model dengan menyertakan Claude dan model OpenAI terbaru.
Microsoft Mengumumkan Ekspansi Microsoft 365 Copilot
11/3/26, 00.00
Laporan "State of AI" terbaru dari NVIDIA mengungkapkan lonjakan adopsi AI di berbagai industri, dengan lebih dari 3.200 peserta global memberikan wawasan tentang aplikasi



%20(1).webp)


