Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

NVIDIA TensorRT-LLM Mengumumkan Paralelisme Pakar yang Luas
Generatived
22/10/25, 00.00
Industri AI dengan cepat mengimplementasikan paralelisme model, yang mendistribusikan tugas komputasi ke beberapa GPU. Teknik ini khususnya penting dengan diperkenalkannya arsitektur Mixture-of-Experts (MoE), yang lebih efisien daripada model padat tradisional yang hanya mengaktifkan sebagian parameter untuk setiap token. Namun, penskalaan MoE menimbulkan tantangan baru dalam paralelisasi, komunikasi, dan penjadwalan, yang membutuhkan optimasi yang cermat.
Untuk mengatasi tantangan ini, konsep Paralelisme Pakar (EP) diperkenalkan. EP meningkatkan kinerja dan skalabilitas dengan mendistribusikan unit pemrosesan khusus yang disebut "pakar" secara strategis ke beberapa GPU. Pendekatan ini penting untuk mengelola model kompleks seperti DeepSeek-R1, yang memiliki 256 pakar dan 671 miliar parameter. Tensor RT-LLM NVIDIA memperkenalkan Wide Expert Parallelism (Wide-EP), yang membuat penerapan model skala besar tersebut lebih efisien, menghasilkan peningkatan kinerja dan total biaya kepemilikan yang lebih rendah.
Implementasi EP skala besar memiliki tantangan, terutama dalam hal kebutuhan memori dan komputasi. Model MoE dapat mengurangi kebutuhan komputasi per token dengan hanya mengaktifkan sejumlah kecil pakar selama inferensi. Namun, pemuatan bobot secara dinamis untuk setiap pakar yang diaktifkan dapat menimbulkan kemacetan, terutama dalam skenario throughput tinggi. EP skala besar mengatasi beberapa masalah ini dengan mendistribusikan pakar di lebih banyak GPU, mengurangi beban beban bobot, dan meningkatkan keseimbangan komputasi dan memori dalam sistem.
Desain dan arsitektur sistem juga penting untuk penskalaan EP. Pergerakan dan komunikasi memori yang efisien bergantung pada bandwidth dan topologi interkoneksi. Perangkat lunak dan kernel yang dioptimalkan diperlukan untuk mengelola lalu lintas antar pakar dan memastikan komunikasi dan penyeimbangan beban yang efisien. NVLink NVIDIA memainkan peran kunci dalam mengurangi overhead komunikasi dengan menyediakan bandwidth yang diperlukan untuk mendukung pertukaran informasi antar pakar yang terdistribusi selama proses inferensi.
Singkatnya, Wide-EP, bagian dari TensorRT-LLM NVIDIA, menyediakan solusi efektif untuk penskalaan model MoE yang besar. Dengan mendistribusikan pakar ke lebih banyak GPU, Wide-EP mengurangi beban, meningkatkan efisiensi GroupGEMM, dan mengelola overhead komunikasi secara efektif dengan memanfaatkan domain NVLink bandwidth tinggi. Pendekatan ini tidak hanya meningkatkan throughput per GPU, tetapi juga berdampak signifikan terhadap aspek ekonomi penerapan sistem, memungkinkan konkurensi yang lebih besar dan efisiensi GPU yang lebih baik, yang pada akhirnya mengurangi biaya layanan untuk model besar.
Bagikan artikel ini:
Tin tức mới nhất
APTO meluncurkan materi dukungan pengembangan AI baru
28/11/25, 00.00
APTO (Shibuya-ku, Tokyo) telah mulai menawarkan materi baru untuk mendukung pengembangan AI.
peningkatan pengalaman pencarian dan pembelian AI ecbeing
28/11/25, 00.00
ecbeing (Shibuya-ku, Tokyo) telah mulai menawarkan "Digisaru AI Search," yang mengoptimalkan pencarian dalam situs e-commerce.
Newton mulai mendukung compliance hukum AI EU
28/11/25, 00.00
Newton Consulting (Chiyoda-ku, Tokyo) mengumumkan bahwa mereka akan mulai menawarkan "Layanan Dukungan Kepatuhan Hukum AI EU (AI Berisiko Tinggi)" mulai 26 November 2025.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
APTO meluncurkan materi dukungan pengembangan AI baru
28/11/25, 00.00
APTO (Shibuya-ku, Tokyo) telah mulai menawarkan materi baru untuk mendukung pengembangan AI.
peningkatan pengalaman pencarian dan pembelian AI ecbeing
28/11/25, 00.00
ecbeing (Shibuya-ku, Tokyo) telah mulai menawarkan "Digisaru AI Search," yang mengoptimalkan pencarian dalam situs e-commerce.
Newton mulai mendukung compliance hukum AI EU
28/11/25, 00.00
Newton Consulting (Chiyoda-ku, Tokyo) mengumumkan bahwa mereka akan mulai menawarkan "Layanan Dukungan Kepatuhan Hukum AI EU (AI Berisiko Tinggi)" mulai 26 November 2025.

%20(1).webp)
%20(1).webp)



