top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA TensorRT-LLM Mengumumkan Paralelisme Pakar yang Luas

Generatived

22/10/25, 00.00

Industri AI dengan cepat mengimplementasikan paralelisme model, yang mendistribusikan tugas komputasi ke beberapa GPU. Teknik ini khususnya penting dengan diperkenalkannya arsitektur Mixture-of-Experts (MoE), yang lebih efisien daripada model padat tradisional yang hanya mengaktifkan sebagian parameter untuk setiap token. Namun, penskalaan MoE menimbulkan tantangan baru dalam paralelisasi, komunikasi, dan penjadwalan, yang membutuhkan optimasi yang cermat.

Untuk mengatasi tantangan ini, konsep Paralelisme Pakar (EP) diperkenalkan. EP meningkatkan kinerja dan skalabilitas dengan mendistribusikan unit pemrosesan khusus yang disebut "pakar" secara strategis ke beberapa GPU. Pendekatan ini penting untuk mengelola model kompleks seperti DeepSeek-R1, yang memiliki 256 pakar dan 671 miliar parameter. Tensor RT-LLM NVIDIA memperkenalkan Wide Expert Parallelism (Wide-EP), yang membuat penerapan model skala besar tersebut lebih efisien, menghasilkan peningkatan kinerja dan total biaya kepemilikan yang lebih rendah.

Implementasi EP skala besar memiliki tantangan, terutama dalam hal kebutuhan memori dan komputasi. Model MoE dapat mengurangi kebutuhan komputasi per token dengan hanya mengaktifkan sejumlah kecil pakar selama inferensi. Namun, pemuatan bobot secara dinamis untuk setiap pakar yang diaktifkan dapat menimbulkan kemacetan, terutama dalam skenario throughput tinggi. EP skala besar mengatasi beberapa masalah ini dengan mendistribusikan pakar di lebih banyak GPU, mengurangi beban beban bobot, dan meningkatkan keseimbangan komputasi dan memori dalam sistem.

Desain dan arsitektur sistem juga penting untuk penskalaan EP. Pergerakan dan komunikasi memori yang efisien bergantung pada bandwidth dan topologi interkoneksi. Perangkat lunak dan kernel yang dioptimalkan diperlukan untuk mengelola lalu lintas antar pakar dan memastikan komunikasi dan penyeimbangan beban yang efisien. NVLink NVIDIA memainkan peran kunci dalam mengurangi overhead komunikasi dengan menyediakan bandwidth yang diperlukan untuk mendukung pertukaran informasi antar pakar yang terdistribusi selama proses inferensi.

Singkatnya, Wide-EP, bagian dari TensorRT-LLM NVIDIA, menyediakan solusi efektif untuk penskalaan model MoE yang besar. Dengan mendistribusikan pakar ke lebih banyak GPU, Wide-EP mengurangi beban, meningkatkan efisiensi GroupGEMM, dan mengelola overhead komunikasi secara efektif dengan memanfaatkan domain NVLink bandwidth tinggi. Pendekatan ini tidak hanya meningkatkan throughput per GPU, tetapi juga berdampak signifikan terhadap aspek ekonomi penerapan sistem, memungkinkan konkurensi yang lebih besar dan efisiensi GPU yang lebih baik, yang pada akhirnya mengurangi biaya layanan untuk model besar.

Bagikan artikel ini:

Tin tức mới nhất
Peluncuran HELLO base dan Goaico AI Watanabe-kun

Peluncuran HELLO base dan Goaico AI Watanabe-kun

17/3/26, 00.00

HELLO base (Kota Nagoya, Prefektur Aichi) dan Goaico (Tokyo) telah meluncurkan "AI Watanabe-kun," asisten AI dengan pengetahuan khusus dalam penjualan asuransi korporat.

Perusahaan AI memperluas aliran pendapatan mereka dengan pembayaran Stripe .

Perusahaan AI memperluas aliran pendapatan mereka dengan pembayaran Stripe .

17/3/26, 00.00

Stripe(San Francisco) mengumumkan bahwa perusahaan-perusahaan AI seperti Lovable, Gamma, dan ElevenLabs telah mengadopsinya sebagai mitra pembayaran mereka.

Polimill menyelenggarakan pelatihan AI untuk karyawan Kota Sukumo.

Polimill menyelenggarakan pelatihan AI untuk karyawan Kota Sukumo.

17/3/26, 00.00

Polimill (Minato-ku, Tokyo) menyelenggarakan pelatihan penggunaan "QommonsAI" untuk karyawan Kota Sukumo, Prefektur Kochi.

AI Jepang berhasil meningkatkan efisiensi operasional.

AI Jepang berhasil meningkatkan efisiensi operasional.

17/3/26, 00.00

JAPAN AI (Shinjuku-ku, Tokyo) telah memperkenalkan AI ke dalam operasional Layers Consulting (Shinagawa-ku, Tokyo), secara signifikan mengurangi waktu yang dibutuhkan

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
Peluncuran HELLO base dan Goaico AI Watanabe-kun

Peluncuran HELLO base dan Goaico AI Watanabe-kun

17/3/26, 00.00

HELLO base (Kota Nagoya, Prefektur Aichi) dan Goaico (Tokyo) telah meluncurkan "AI Watanabe-kun," asisten AI dengan pengetahuan khusus dalam penjualan asuransi korporat.

Perusahaan AI memperluas aliran pendapatan mereka dengan pembayaran Stripe .

Perusahaan AI memperluas aliran pendapatan mereka dengan pembayaran Stripe .

17/3/26, 00.00

Stripe(San Francisco) mengumumkan bahwa perusahaan-perusahaan AI seperti Lovable, Gamma, dan ElevenLabs telah mengadopsinya sebagai mitra pembayaran mereka.

Polimill menyelenggarakan pelatihan AI untuk karyawan Kota Sukumo.

Polimill menyelenggarakan pelatihan AI untuk karyawan Kota Sukumo.

17/3/26, 00.00

Polimill (Minato-ku, Tokyo) menyelenggarakan pelatihan penggunaan "QommonsAI" untuk karyawan Kota Sukumo, Prefektur Kochi.

AI Jepang berhasil meningkatkan efisiensi operasional.

AI Jepang berhasil meningkatkan efisiensi operasional.

17/3/26, 00.00

JAPAN AI (Shinjuku-ku, Tokyo) telah memperkenalkan AI ke dalam operasional Layers Consulting (Shinagawa-ku, Tokyo), secara signifikan mengurangi waktu yang dibutuhkan

bottom of page