Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
%20(1).webp)
NVIDIA Mengumumkan Pembongkaran Cache KV untuk LLM
Generatived
22/9/25, 00.00
Seiring dengan semakin kompleksnya model AI, pengelolaan cache kunci-nilai (KV) selama inferensi menjadi semakin penting. Cache KV sangat penting untuk model bahasa skala besar (LLM) seperti GPT-OSS dan DeepSeek-R1 karena menyimpan data atensi yang penting untuk memproses perintah input. Namun, seiring bertambahnya panjang perintah, ukuran cache bertambah, membebani memori GPU yang terbatas dan mahal, serta berpotensi menciptakan kemacetan.
Untuk mengatasi masalah ini, pembaruan terbaru NVIDIA Dynamo memperkenalkan fitur pemindahan cache KV, yang memungkinkan cache dipindahkan dari memori GPU ke solusi penyimpanan yang lebih hemat biaya. Proses ini didukung oleh NVIDIA NIXL, sebuah pustaka transfer latensi rendah, yang memungkinkan pemindahan cache KV dengan cepat tanpa mengganggu proses inferensi. Pemindahan cache ini tidak hanya mengurangi kebutuhan memori GPU, tetapi juga memungkinkan jendela konteks yang lebih panjang dan peningkatan konkurensi pengguna, yang pada akhirnya menghasilkan biaya operasional yang lebih rendah.
Manfaat pembongkaran cache KV sangat signifikan bagi penyedia layanan inferensi. Pembongkaran cache KV memungkinkan dukungan untuk model dengan konteks yang diperluas tanpa mengorbankan ukuran prompt, mengurangi kebutuhan GPU tambahan, dan menghindari penghitungan ulang cache KV yang mahal. Hal ini mengurangi waktu respons dan meningkatkan pengalaman pengguna. Penyedia dapat mencapai throughput yang lebih tinggi dan biaya per token yang lebih rendah, sehingga meningkatkan skalabilitas dan efisiensi layanan mereka.
Faktanya, penyedia penyimpanan memanfaatkan pembongkaran cache KV untuk meningkatkan layanan mereka. Misalnya, Vast mendemonstrasikan integrasi performa tinggi dengan NVIDIA Dynamo, mencapai tingkat throughput yang luar biasa dan memastikan penyimpanan tidak menjadi hambatan. Demikian pula, uji lab WEKA menunjukkan bahwa Augmented Memory Grid-nya dapat mengalirkan cache KV ke GPU dengan kecepatan mendekati kecepatan memori, mengoptimalkan throughput token untuk beban kerja inferensi.
Secara keseluruhan, pemindahan cache KV menyediakan solusi berskala untuk mengelola tantangan inferensi dalam aplikasi Generative AI berskala besar, mengurangi biaya dan meningkatkan daya tanggap, memungkinkan penerapan yang lebih luas dan pemanfaatan model AI yang lebih efisien.
Bagikan artikel ini:
Tin tức mới nhất
OpenAI mengakuisisi Promptfoo untuk Enhance AI.
11/3/26, 00.00
Akuisisi Promptfoo oleh perusahaan AI terkemuka akan meningkatkan fitur keamanan platform OpenAI Frontier.
Peluncuran layanan operasi SNS berbasis AI dari Riddell
11/3/26, 00.00
Riddell (Distrik Minato, Tokyo) telah memperbarui layanan agensi manajemen media sosialnya, "PRST," dan akan mulai menawarkan "manajemen media sosial berbasis AI"
Media Mencoba Pembuat AI Baru Media
11/3/26, 00.00
Media Try (Nishi-ku, Osaka) telah meluncurkan "CREAITOR," sebuah platform media berbasis AI untuk para kreator.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
OpenAI mengakuisisi Promptfoo untuk Enhance AI.
11/3/26, 00.00
Akuisisi Promptfoo oleh perusahaan AI terkemuka akan meningkatkan fitur keamanan platform OpenAI Frontier.
Peluncuran layanan operasi SNS berbasis AI dari Riddell
11/3/26, 00.00
Riddell (Distrik Minato, Tokyo) telah memperbarui layanan agensi manajemen media sosialnya, "PRST," dan akan mulai menawarkan "manajemen media sosial berbasis AI"
Media Mencoba Pembuat AI Baru Media
11/3/26, 00.00
Media Try (Nishi-ku, Osaka) telah meluncurkan "CREAITOR," sebuah platform media berbasis AI untuk para kreator.


%20(1).webp)



