top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA TensorRT-LLM Mengumumkan Paralelisme Pakar yang Luas

Generatived

22/10/25, 00.00

Industri AI dengan cepat mengimplementasikan paralelisme model, yang mendistribusikan tugas komputasi ke beberapa GPU. Teknik ini khususnya penting dengan diperkenalkannya arsitektur Mixture-of-Experts (MoE), yang lebih efisien daripada model padat tradisional yang hanya mengaktifkan sebagian parameter untuk setiap token. Namun, penskalaan MoE menimbulkan tantangan baru dalam paralelisasi, komunikasi, dan penjadwalan, yang membutuhkan optimasi yang cermat.

Untuk mengatasi tantangan ini, konsep Paralelisme Pakar (EP) diperkenalkan. EP meningkatkan kinerja dan skalabilitas dengan mendistribusikan unit pemrosesan khusus yang disebut "pakar" secara strategis ke beberapa GPU. Pendekatan ini penting untuk mengelola model kompleks seperti DeepSeek-R1, yang memiliki 256 pakar dan 671 miliar parameter. Tensor RT-LLM NVIDIA memperkenalkan Wide Expert Parallelism (Wide-EP), yang membuat penerapan model skala besar tersebut lebih efisien, menghasilkan peningkatan kinerja dan total biaya kepemilikan yang lebih rendah.

Implementasi EP skala besar memiliki tantangan, terutama dalam hal kebutuhan memori dan komputasi. Model MoE dapat mengurangi kebutuhan komputasi per token dengan hanya mengaktifkan sejumlah kecil pakar selama inferensi. Namun, pemuatan bobot secara dinamis untuk setiap pakar yang diaktifkan dapat menimbulkan kemacetan, terutama dalam skenario throughput tinggi. EP skala besar mengatasi beberapa masalah ini dengan mendistribusikan pakar di lebih banyak GPU, mengurangi beban beban bobot, dan meningkatkan keseimbangan komputasi dan memori dalam sistem.

Desain dan arsitektur sistem juga penting untuk penskalaan EP. Pergerakan dan komunikasi memori yang efisien bergantung pada bandwidth dan topologi interkoneksi. Perangkat lunak dan kernel yang dioptimalkan diperlukan untuk mengelola lalu lintas antar pakar dan memastikan komunikasi dan penyeimbangan beban yang efisien. NVLink NVIDIA memainkan peran kunci dalam mengurangi overhead komunikasi dengan menyediakan bandwidth yang diperlukan untuk mendukung pertukaran informasi antar pakar yang terdistribusi selama proses inferensi.

Singkatnya, Wide-EP, bagian dari TensorRT-LLM NVIDIA, menyediakan solusi efektif untuk penskalaan model MoE yang besar. Dengan mendistribusikan pakar ke lebih banyak GPU, Wide-EP mengurangi beban, meningkatkan efisiensi GroupGEMM, dan mengelola overhead komunikasi secara efektif dengan memanfaatkan domain NVLink bandwidth tinggi. Pendekatan ini tidak hanya meningkatkan throughput per GPU, tetapi juga berdampak signifikan terhadap aspek ekonomi penerapan sistem, memungkinkan konkurensi yang lebih besar dan efisiensi GPU yang lebih baik, yang pada akhirnya mengurangi biaya layanan untuk model besar.

Bagikan artikel ini:

Tin tức mới nhất
Tingkat kualifikasi AI untuk karyawan Ice3 Design: 81,7%

Tingkat kualifikasi AI untuk karyawan Ice3 Design: 81,7%

28/11/25, 00.00

Ice3 Design (Minato-ku, Tokyo) telah mendorong semua karyawan untuk mengikuti ujian "Generative AI Passport", dan mengumumkan bahwa tingkat kualifikasi dalam perusahaan telah melampaui 80%.

Diploma Pendidikan AI dott Aso Juku Diluncurkan

Diploma Pendidikan AI dott Aso Juku Diluncurkan

28/11/25, 00.00

dott (kantor pusat: tidak tercantum) dan Aso Juku (kantor pusat: tidak tercantum) telah menandatangani perjanjian kolaborasi untuk mempromosikan pendidikan AI.

Pengumuman Layanan Baru Tujuan AI Perawat MLP

Pengumuman Layanan Baru Tujuan AI Perawat MLP

28/11/25, 00.00

MLP (Bunkyo-ku, Tokyo) telah merilis layanan baru yang disebut "Nurse AI Goal" untuk membantu mempersiapkan ujian keperawatan nasional.

Proyek Pengembangan Bersama AI Storm x Alibaba AI Talent

Proyek Pengembangan Bersama AI Storm x Alibaba AI Talent

28/11/25, 00.00

AI Storm (Chiyoda-ku, Tokyo) telah mengumumkan kemitraan strategis dengan Alibaba Cloud.

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Hãy theo dõi chúng tôi

  • Facebook
  • X

Bahasa

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

Generatived AI Logo

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
Tingkat kualifikasi AI untuk karyawan Ice3 Design: 81,7%

Tingkat kualifikasi AI untuk karyawan Ice3 Design: 81,7%

28/11/25, 00.00

Ice3 Design (Minato-ku, Tokyo) telah mendorong semua karyawan untuk mengikuti ujian "Generative AI Passport", dan mengumumkan bahwa tingkat kualifikasi dalam perusahaan telah melampaui 80%.

Diploma Pendidikan AI dott Aso Juku Diluncurkan

Diploma Pendidikan AI dott Aso Juku Diluncurkan

28/11/25, 00.00

dott (kantor pusat: tidak tercantum) dan Aso Juku (kantor pusat: tidak tercantum) telah menandatangani perjanjian kolaborasi untuk mempromosikan pendidikan AI.

Pengumuman Layanan Baru Tujuan AI Perawat MLP

Pengumuman Layanan Baru Tujuan AI Perawat MLP

28/11/25, 00.00

MLP (Bunkyo-ku, Tokyo) telah merilis layanan baru yang disebut "Nurse AI Goal" untuk membantu mempersiapkan ujian keperawatan nasional.

Proyek Pengembangan Bersama AI Storm x Alibaba AI Talent

Proyek Pengembangan Bersama AI Storm x Alibaba AI Talent

28/11/25, 00.00

AI Storm (Chiyoda-ku, Tokyo) telah mengumumkan kemitraan strategis dengan Alibaba Cloud.

bottom of page