Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

NVIDIA NeMo-RL v0.3 Mendukung Pelatihan Model Bahasa Skala Besar
Generatived
22/8/25, 00.00
NVIDIA telah mengumumkan pembaruan untuk platform NeMo-RL-nya, yang meningkatkan kemampuan pelatihan model bahasa skala besar. Meskipun rilis awal mendukung PyTorch DTensor, kebutuhan akan solusi yang lebih efisien menjadi jelas seiring bertambahnya parameter model hingga mencapai ratusan miliar. Pustaka Megatron-Core NVIDIA mengatasi masalah ini dengan mengurangi overhead yang terkait dengan aktivasi model skala besar dan menyediakan kernel CUDA yang dioptimalkan untuk meningkatkan kinerja.
Rilis NeMo-RL v0.3 terbaru mengintegrasikan Megatron-Core, memungkinkan pengembang untuk melakukan pasca-pelatihan model besar secara efisien. Pustaka ini mengoptimalkan komunikasi dan komputasi dengan menggunakan strategi paralelisasi 6D dan mendukung beragam arsitektur model. Kemampuan penyetelan otomatis NeMo-RL dan antarmuka konfigurasi yang ramah pengguna memudahkan pengguna untuk bermigrasi ke Megatron-Core.
Untuk memanfaatkan backend Megatron, pengguna cukup memodifikasi berkas konfigurasi YAML untuk mengaktifkan fitur-fitur seperti titik pemeriksaan aktivasi dan paralelisme model. Proses konfigurasi dirancang agar mudah dipahami, dan dokumentasi terperinci serta contoh skrip disediakan untuk membantu pengguna dalam pasca-pelatihan model mereka secara efisien.
Perbandingan performa antara Megatron-Core dan PyTorch DTensor menunjukkan bahwa Megatron-Core memberikan performa pelatihan yang unggul, terutama untuk model padat dan model Campuran Pakar (MoE). Peningkatan NVIDIA seperti pengemasan sekuens dan pengambilan sampel penting berkontribusi pada throughput dan konvergensi yang optimal. Selain itu, platform ini mendukung pelatihan konteks panjang, memberikan performa yang sangat baik bahkan untuk panjang sekuens hingga 16.000 token.
NVIDIA mendorong para pengembang untuk merujuk pada dokumentasi NeMo-RL dan memanfaatkan optimasi Megatron-Core untuk kebutuhan pasca-pelatihan model skala besar mereka. Dengan optimasi performa yang berkelanjutan dan penambahan fitur yang akan datang, NeMo-RL v0.3 bertujuan untuk mencapai pembelajaran penguatan yang efisien di berbagai ukuran model.
Bagikan artikel ini:
Tin tức mới nhất
Seminar Tata Kelola AI Institut Penelitian Sistem Sosial Baru
22/8/25, 00.00
Institut Penelitian Sistem Sosial Baru (Minato-ku, Tokyo) akan menyelenggarakan seminar tentang pembangunan dan penerapan tata kelola AI.
Arsitek Sekutu Letro menambahkan fitur baru
22/8/25, 00.00
Allied Architects (Shibuya-ku, Tokyo) telah menambahkan fitur baru ke platform pengoptimalan CVR-nya, Letro.
Vertex Berpartisipasi dalam AI Expo 2025 Musim Panas
22/8/25, 00.00
Vertex Partners (Minato-ku, Tokyo) akan berpartisipasi dalam AI Expo Summer 2025, yang akan diadakan di Tokyo International Forum pada tanggal 27 dan 28 Agustus 2025.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Seminar Tata Kelola AI Institut Penelitian Sistem Sosial Baru
22/8/25, 00.00
Institut Penelitian Sistem Sosial Baru (Minato-ku, Tokyo) akan menyelenggarakan seminar tentang pembangunan dan penerapan tata kelola AI.
Arsitek Sekutu Letro menambahkan fitur baru
22/8/25, 00.00
Allied Architects (Shibuya-ku, Tokyo) telah menambahkan fitur baru ke platform pengoptimalan CVR-nya, Letro.
Vertex Berpartisipasi dalam AI Expo 2025 Musim Panas
22/8/25, 00.00
Vertex Partners (Minato-ku, Tokyo) akan berpartisipasi dalam AI Expo Summer 2025, yang akan diadakan di Tokyo International Forum pada tanggal 27 dan 28 Agustus 2025.