Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

Google Tech Mengumumkan Managed Lustre untuk Mendukung Inferensi AI
Generatived
5/11/25, 00.00
Permintaan infrastruktur inferensi AI diperkirakan akan tumbuh lebih cepat daripada investasi dalam pelatihan model AI, didorong oleh peningkatan pengalaman pengguna dan munculnya AI yang lebih canggih. Organisasi berfokus pada pengelolaan sumber daya inferensi yang efisien untuk menyeimbangkan peningkatan pengalaman pengguna dengan pengelolaan biaya yang efektif.
Studi terbaru menunjukkan bahwa pemanfaatan cache kunci-nilai eksternal (cache KV) dalam solusi penyimpanan berkinerja tinggi seperti Google Cloud Managed Lustre dapat mengurangi total biaya kepemilikan (TCO) perusahaan secara signifikan. Dengan mengalihkan komputasi tertentu ke I/O, perusahaan dapat memproses beban kerja yang sama dengan GPU yang jauh lebih sedikit, yang berpotensi mengurangi TCO hingga 35%.
Cache KV memainkan peran kunci dalam fase inferensi model bahasa skala besar (LLM) berbasis Transformer, mencegah kalkulasi redundan dengan menyimpan vektor kunci (K) dan nilai (V). Optimalisasi ini sangat penting untuk mengelola inferensi AI konteks panjang, yang dapat membutuhkan banyak sumber daya untuk pra-komputasi. Penggunaan penyimpanan skala luas berkinerja tinggi seperti Google Cloud Managed Lustre sangat penting untuk mengelola konteks sebesar itu dan memanfaatkan akselerator secara efisien.
Dari perspektif TCO, solusi caching KV berbasis penyimpanan seperti Managed Lustre menawarkan manfaat yang signifikan dibandingkan solusi yang hanya menggunakan memori. Analisis menunjukkan bahwa dengan konfigurasi yang tepat dan peningkatan perangkat lunak, Managed Lustre dapat meningkatkan kinerja inferensi dan mengurangi jumlah akselerator yang dibutuhkan hingga 43%, sehingga menghasilkan penghematan biaya langsung bagi organisasi yang menerapkan beban kerja inferensi AI skala besar.
Bagikan artikel ini:
Tin tức mới nhất
Google Cloud dan NVIDIA Mengumumkan Kemampuan AI Baru
5/11/25, 00.00
Google Cloud (California, AS) telah mengumumkan fitur baru untuk mendukung pengembangan dan penerapan model AI.
Pratinjau Google GKE DRANET dirilis
5/11/25, 00.00
Google(California, AS) berupaya meningkatkan kinerja model yang berjalan pada Kubernetes dan Google Kubernetes Engine (GKE)
Google Tech Mengumumkan Managed Lustre untuk Mendukung Inferensi AI
5/11/25, 00.00
Permintaan untuk infrastruktur inferensi AI diperkirakan tumbuh lebih cepat daripada investasi dalam pelatihan model AI, didorong oleh peningkatan pengalaman pengguna dan munculnya AI yang lebih canggih.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Google Cloud dan NVIDIA Mengumumkan Kemampuan AI Baru
5/11/25, 00.00
Google Cloud (California, AS) telah mengumumkan fitur baru untuk mendukung pengembangan dan penerapan model AI.
Pratinjau Google GKE DRANET dirilis
5/11/25, 00.00
Google(California, AS) berupaya meningkatkan kinerja model yang berjalan pada Kubernetes dan Google Kubernetes Engine (GKE)
Google Tech Mengumumkan Managed Lustre untuk Mendukung Inferensi AI
5/11/25, 00.00
Permintaan untuk infrastruktur inferensi AI diperkirakan tumbuh lebih cepat daripada investasi dalam pelatihan model AI, didorong oleh peningkatan pengalaman pengguna dan munculnya AI yang lebih canggih.



%20(1).webp)

