Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

Efisiensi inferensi AI Google dan pengurangan biaya
Generatived
28/11/25, 00.00
Google(California, AS) mengumumkan bahwa permintaan akan infrastruktur inferensi AI semakin meningkat. Khususnya, meningkatnya penggunaan agen AI dan dukungan untuk jendela konteks yang besar mempercepat permintaan. Organisasi perlu mengelola sumber daya inferensi secara efisien untuk meningkatkan pengalaman pengguna sekaligus mengoptimalkan biaya.
Riset perusahaan menemukan bahwa penggunaan penyimpanan berkinerja tinggi seperti Google Cloud Managed Lustre dapat mengurangi total biaya kepemilikan (TCO) hingga 35%, memungkinkan organisasi memproses beban kerja yang sama dengan GPU yang 43% lebih sedikit. Blog ini merinci tantangan dalam mengelola inferensi AI dan solusi yang ditawarkan Google Cloud Managed Lustre.
Cache KV merupakan teknik optimasi yang penting untuk pengoperasian model bahasa berbasis Transformer (LLM) berskala besar yang efisien. Mekanisme self-attention memastikan bahwa semua elemen dalam suatu urutan dibandingkan secara dinamis dan instan. Cache KV menyimpan vektor kunci (K) dan nilai (V) ini, sehingga mempercepat proses inferensi.
Pertumbuhan AI agen dapat memperparah tantangan dalam mengelola konteks yang panjang. AI agen tidak hanya untuk percakapan, tetapi juga untuk pemecahan masalah dan penyelesaian tugas, mengumpulkan konteks dari beragam sumber digital, yang meningkatkan ukuran cache KV.
Google merekomendasikan Google Cloud Managed Lustre sebagai solusi penyimpanan untuk cache KV eksternal. Solusi ini ideal untuk beban kerja inferensi AI skala besar, dan dapat meningkatkan throughput per akselerator sekaligus mengurangi TCO. Eksperimen Google menunjukkan bahwa penggunaan Managed Lustre meningkatkan performa inferensi secara signifikan.
Bagikan artikel ini:
Tin tức mới nhất
CAST Tech Mengumumkan Ketersediaan Umum Server MCP
24/11/25, 00.00
CAST mengumumkan peningkatan signifikan pada Platform Kecerdasan Perangkat Lunaknya, menjadikan Server MCP untuk Pencitraan CAST tersedia secara umum.
Cohesity dan AWS Meningkatkan Solusi Keamanan Data
24/11/25, 00.00
Cohesity telah menandatangani perjanjian kemitraan strategis dengan Amazon Web Services (AWS) untuk meningkatkan solusi perlindungan dan pemulihan data bagi pelanggan.
Gemini meluncurkan gambar interaktif untuk aplikasi pembelajaran penguatan
24/11/25, 00.00
Gemini memperkenalkan gambar interaktif ke aplikasinya, meningkatkan pengalaman belajar dengan memberikan pengguna pemahaman visual yang lebih mendalam tentang subjek akademis yang kompleks.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
CAST Tech Mengumumkan Ketersediaan Umum Server MCP
24/11/25, 00.00
CAST mengumumkan peningkatan signifikan pada Platform Kecerdasan Perangkat Lunaknya, menjadikan Server MCP untuk Pencitraan CAST tersedia secara umum.
Cohesity dan AWS Meningkatkan Solusi Keamanan Data
24/11/25, 00.00
Cohesity telah menandatangani perjanjian kemitraan strategis dengan Amazon Web Services (AWS) untuk meningkatkan solusi perlindungan dan pemulihan data bagi pelanggan.
Gemini meluncurkan gambar interaktif untuk aplikasi pembelajaran penguatan
24/11/25, 00.00
Gemini memperkenalkan gambar interaktif ke aplikasinya, meningkatkan pengalaman belajar dengan memberikan pengguna pemahaman visual yang lebih mendalam tentang subjek akademis yang kompleks.






