Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

Efisiensi inferensi AI Google dan pengurangan biaya
Generatived
28/11/25, 00.00
Google(California, AS) mengumumkan bahwa permintaan akan infrastruktur inferensi AI semakin meningkat. Khususnya, meningkatnya penggunaan agen AI dan dukungan untuk jendela konteks yang besar mempercepat permintaan. Organisasi perlu mengelola sumber daya inferensi secara efisien untuk meningkatkan pengalaman pengguna sekaligus mengoptimalkan biaya.
Riset perusahaan menemukan bahwa penggunaan penyimpanan berkinerja tinggi seperti Google Cloud Managed Lustre dapat mengurangi total biaya kepemilikan (TCO) hingga 35%, memungkinkan organisasi memproses beban kerja yang sama dengan GPU yang 43% lebih sedikit. Blog ini merinci tantangan dalam mengelola inferensi AI dan solusi yang ditawarkan Google Cloud Managed Lustre.
Cache KV merupakan teknik optimasi yang penting untuk pengoperasian model bahasa berbasis Transformer (LLM) berskala besar yang efisien. Mekanisme self-attention memastikan bahwa semua elemen dalam suatu urutan dibandingkan secara dinamis dan instan. Cache KV menyimpan vektor kunci (K) dan nilai (V) ini, sehingga mempercepat proses inferensi.
Pertumbuhan AI agen dapat memperparah tantangan dalam mengelola konteks yang panjang. AI agen tidak hanya untuk percakapan, tetapi juga untuk pemecahan masalah dan penyelesaian tugas, mengumpulkan konteks dari beragam sumber digital, yang meningkatkan ukuran cache KV.
Google merekomendasikan Google Cloud Managed Lustre sebagai solusi penyimpanan untuk cache KV eksternal. Solusi ini ideal untuk beban kerja inferensi AI skala besar, dan dapat meningkatkan throughput per akselerator sekaligus mengurangi TCO. Eksperimen Google menunjukkan bahwa penggunaan Managed Lustre meningkatkan performa inferensi secara signifikan.
Bagikan artikel ini:
Tin tức mới nhất
Percobaan demonstrasi otomatisasi laporan st4system dimulai
27/11/25, 00.00
st4system (Higashi-ku, Kota Hiroshima) telah memulai eksperimen demonstrasi menggunakan AI-OCR dan Generative AI, dengan tujuan mengotomatiskan pemrosesan dokumen back-office
Tetsuhi Technology menambahkan fungsi obrolan AI
27/11/25, 00.00
Tetsuhi Technology (Yokohama) telah menambahkan fungsi obrolan AI ke perangkat lunak pencarian teks lengkap server berkasnya, "FileBlog."
Kursus Manajemen AI Matsuo Lab Diluncurkan, Juga untuk Pekerja Dewasa
27/11/25, 00.00
Matsuo Lab (Tokyo) mengumumkan akan mulai menawarkan "Kursus Manajemen AI" pada 21 Januari 2026.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Percobaan demonstrasi otomatisasi laporan st4system dimulai
27/11/25, 00.00
st4system (Higashi-ku, Kota Hiroshima) telah memulai eksperimen demonstrasi menggunakan AI-OCR dan Generative AI, dengan tujuan mengotomatiskan pemrosesan dokumen back-office
Tetsuhi Technology menambahkan fungsi obrolan AI
27/11/25, 00.00
Tetsuhi Technology (Yokohama) telah menambahkan fungsi obrolan AI ke perangkat lunak pencarian teks lengkap server berkasnya, "FileBlog."
Kursus Manajemen AI Matsuo Lab Diluncurkan, Juga untuk Pekerja Dewasa
27/11/25, 00.00
Matsuo Lab (Tokyo) mengumumkan akan mulai menawarkan "Kursus Manajemen AI" pada 21 Januari 2026.




%20(1).webp)

