top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA Meluncurkan Solusi Inferensi Terpisah Berbasis Kubernetes

Generatived

25/3/26, 00.00

Seiring meningkatnya kompleksitas beban kerja inferensi model bahasa besar (LLM), pendekatan penyajian proses tunggal tradisional mencapai batasnya. Hal ini telah menyebabkan adopsi penyajian terpisah (disaggregated serving), yang memisahkan pipeline inferensi ke dalam tahapan yang berbeda seperti prefill, decode, dan routing. Setiap tahapan beroperasi sebagai layanan independen, memungkinkan alokasi sumber daya dan penskalaan yang lebih efisien.

Penerapan inferensi terpisah pada Kubernetes menawarkan penggunaan perangkat keras yang lebih fleksibel dan efisien, khususnya GPU. Dengan membagi pipeline inferensi, setiap tahapan dapat dioptimalkan secara individual untuk kebutuhan komputasi spesifiknya. Misalnya, tahapan prefill dapat memaksimalkan throughput GPU, sementara tahapan decode dapat memanfaatkan GPU dengan akses memori bandwidth tinggi yang cepat. Pemisahan ini juga memungkinkan penskalaan independen dari setiap tahapan, merespons pola permintaan yang bervariasi secara lebih efektif dan meningkatkan pemanfaatan GPU secara keseluruhan.

Kerangka kerja seperti NVIDIA Dynamo dan llm-d telah dikembangkan untuk mengimplementasikan pola ini, menimbulkan pertanyaan tentang orkestrasi pada Kubernetes. Penjadwalan memainkan peran penting dalam kinerja inferensi multi-pod, dengan kemampuan seperti penjadwalan berkelompok (gang scheduling), penjadwalan berkelompok hierarkis (hierarchical gang scheduling), dan penempatan yang sadar topologi (topology-aware placement) menjadi kunci penempatan pod yang optimal di seluruh klaster. Kemampuan ini memastikan bahwa pod ditempatkan dengan cara yang memaksimalkan kinerja dan meminimalkan hambatan (bottleneck).

Penyebaran inferensi terpisah (disaggregated inference) melibatkan pengelolaan beberapa peran, masing-masing dengan profil sumber daya dan kebutuhan penskalaan yang berbeda. API Kubernetes seperti LeaderWorkerSet dan NVIDIA Grove memungkinkan pengguna untuk mengekspresikan struktur aplikasi inferensi mereka dan menentukan bagaimana aplikasi tersebut harus diskalakan. API ini menerjemahkan maksud tingkat aplikasi ke dalam batasan penjadwalan konkret, yang kemudian dipenuhi oleh penjadwal seperti KAI Scheduler. Koordinasi ini sangat penting untuk mempertahankan kondisi runtime yang optimal untuk beban kerja AI.

Kesimpulannya, pergeseran ke arah penyajian terpisah (disaggregated serving) di Kubernetes menawarkan pendekatan yang lebih disesuaikan untuk mengelola beban kerja inferensi LLM. Dengan memungkinkan setiap tahapan dalam alur inferensi untuk didukung dan diskalakan secara independen, organisasi dapat mencapai kinerja dan pemanfaatan sumber daya yang lebih baik, yang pada akhirnya mengarah pada operasi AI yang lebih efisien.

Bagikan artikel ini:

Tin tức mới nhất
Tomorrow Net Hokkaido Gas memperkenalkan AI.

Tomorrow Net Hokkaido Gas memperkenalkan AI.

25/3/26, 00.00

Tomorrow Net (Shinagawa-ku, Tokyo) mengumumkan bahwa Hokkaido Gas (Sapporo, Hokkaido) telah mengimplementasikan sistem AI-nya, "CAT.AI Multi-AI Agent for Voice,"

Mengurangi biaya pengembangan untuk AI sekutu beresolusi tinggi.

Mengurangi biaya pengembangan untuk AI sekutu beresolusi tinggi.

25/3/26, 00.00

Hi-Res (Shinjuku-ku, Tokyo) dan Allied Telesis (Shinagawa-ku, Tokyo) telah menandatangani perjanjian dasar yang bertujuan untuk mengintegrasikan infrastruktur GPU dan peralatan jaringan.

EEFUL DB meluncurkan rubrik tentang pemanfaatan AI dalam pengaturan perawatan keperawatan.

EEFUL DB meluncurkan rubrik tentang pemanfaatan AI dalam pengaturan perawatan keperawatan.

25/3/26, 00.00

EEFUL Holdings (Minato-ku, Tokyo), yang mengoperasikan "EEFUL DB," telah meluncurkan seri kolom baru, "Teknik Kerja AI untuk Perawatan,"

BLAM akan menerapkan AI "Claude" di seluruh perusahaan.

BLAM akan menerapkan AI "Claude" di seluruh perusahaan.

25/3/26, 00.00

BLAM (Shinagawa-ku, Tokyo) mengumumkan bahwa mereka akan mengimplementasikan AI "Claude" dari Anthropic di seluruh perusahaan

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
Tomorrow Net Hokkaido Gas memperkenalkan AI.

Tomorrow Net Hokkaido Gas memperkenalkan AI.

25/3/26, 00.00

Tomorrow Net (Shinagawa-ku, Tokyo) mengumumkan bahwa Hokkaido Gas (Sapporo, Hokkaido) telah mengimplementasikan sistem AI-nya, "CAT.AI Multi-AI Agent for Voice,"

Mengurangi biaya pengembangan untuk AI sekutu beresolusi tinggi.

Mengurangi biaya pengembangan untuk AI sekutu beresolusi tinggi.

25/3/26, 00.00

Hi-Res (Shinjuku-ku, Tokyo) dan Allied Telesis (Shinagawa-ku, Tokyo) telah menandatangani perjanjian dasar yang bertujuan untuk mengintegrasikan infrastruktur GPU dan peralatan jaringan.

EEFUL DB meluncurkan rubrik tentang pemanfaatan AI dalam pengaturan perawatan keperawatan.

EEFUL DB meluncurkan rubrik tentang pemanfaatan AI dalam pengaturan perawatan keperawatan.

25/3/26, 00.00

EEFUL Holdings (Minato-ku, Tokyo), yang mengoperasikan "EEFUL DB," telah meluncurkan seri kolom baru, "Teknik Kerja AI untuk Perawatan,"

BLAM akan menerapkan AI "Claude" di seluruh perusahaan.

BLAM akan menerapkan AI "Claude" di seluruh perusahaan.

25/3/26, 00.00

BLAM (Shinagawa-ku, Tokyo) mengumumkan bahwa mereka akan mengimplementasikan AI "Claude" dari Anthropic di seluruh perusahaan

bottom of page