Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

Efisiensi inferensi AI Google dan pengurangan biaya
Generatived
28/11/25, 00.00
Google(California, AS) mengumumkan bahwa permintaan akan infrastruktur inferensi AI semakin meningkat. Khususnya, meningkatnya penggunaan agen AI dan dukungan untuk jendela konteks yang besar mempercepat permintaan. Organisasi perlu mengelola sumber daya inferensi secara efisien untuk meningkatkan pengalaman pengguna sekaligus mengoptimalkan biaya.
Riset perusahaan menemukan bahwa penggunaan penyimpanan berkinerja tinggi seperti Google Cloud Managed Lustre dapat mengurangi total biaya kepemilikan (TCO) hingga 35%, memungkinkan organisasi memproses beban kerja yang sama dengan GPU yang 43% lebih sedikit. Blog ini merinci tantangan dalam mengelola inferensi AI dan solusi yang ditawarkan Google Cloud Managed Lustre.
Cache KV merupakan teknik optimasi yang penting untuk pengoperasian model bahasa berbasis Transformer (LLM) berskala besar yang efisien. Mekanisme self-attention memastikan bahwa semua elemen dalam suatu urutan dibandingkan secara dinamis dan instan. Cache KV menyimpan vektor kunci (K) dan nilai (V) ini, sehingga mempercepat proses inferensi.
Pertumbuhan AI agen dapat memperparah tantangan dalam mengelola konteks yang panjang. AI agen tidak hanya untuk percakapan, tetapi juga untuk pemecahan masalah dan penyelesaian tugas, mengumpulkan konteks dari beragam sumber digital, yang meningkatkan ukuran cache KV.
Google merekomendasikan Google Cloud Managed Lustre sebagai solusi penyimpanan untuk cache KV eksternal. Solusi ini ideal untuk beban kerja inferensi AI skala besar, dan dapat meningkatkan throughput per akselerator sekaligus mengurangi TCO. Eksperimen Google menunjukkan bahwa penggunaan Managed Lustre meningkatkan performa inferensi secara signifikan.
Bagikan artikel ini:
Tin tức mới nhất
Dukungan yang diperluas untuk skor pencarian AI FeedForce
26/11/25, 00.00
FeedForce (Minato-ku, Tokyo) telah menambahkan dukungan untuk GPT-5.1 OpenAI dan Gemini 3 Google ke Answer IO, sebuah layanan yang memvisualisasikan skor merek dari pencarian AI.
Dukungan pengajuan dengan Money Forward AI
26/11/25, 00.00
Money Forward (Minato-ku, Tokyo) telah mulai menawarkan layanan baru yang memanfaatkan AI, "Money Forward AI Tax Return."
Video AIdeaLab Generative AI dirilis gratis
26/11/25, 00.00
AIdeaLab (Chiyoda-ku, Tokyo) telah mengumumkan akan merilis model ringan dari video Generative AI"AIdeaLab VideoMoE" di Hugging Face.
NEC dan Institut Nasional Manajemen Risiko Kesehatan mengembangkan teknologi dukungan dokter berbasis AI
26/11/25, 00.00
Institut Nasional untuk Manajemen Risiko Kesehatan (Shinjuku-ku, Tokyo) dan NEC (Minato-ku, Tokyo) telah bersama-sama mengembangkan teknologi dukungan dokter menggunakan AI dan mengonfirmasi keefektifannya.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Dukungan yang diperluas untuk skor pencarian AI FeedForce
26/11/25, 00.00
FeedForce (Minato-ku, Tokyo) telah menambahkan dukungan untuk GPT-5.1 OpenAI dan Gemini 3 Google ke Answer IO, sebuah layanan yang memvisualisasikan skor merek dari pencarian AI.
Dukungan pengajuan dengan Money Forward AI
26/11/25, 00.00
Money Forward (Minato-ku, Tokyo) telah mulai menawarkan layanan baru yang memanfaatkan AI, "Money Forward AI Tax Return."
Video AIdeaLab Generative AI dirilis gratis
26/11/25, 00.00
AIdeaLab (Chiyoda-ku, Tokyo) telah mengumumkan akan merilis model ringan dari video Generative AI"AIdeaLab VideoMoE" di Hugging Face.
NEC dan Institut Nasional Manajemen Risiko Kesehatan mengembangkan teknologi dukungan dokter berbasis AI
26/11/25, 00.00
Institut Nasional untuk Manajemen Risiko Kesehatan (Shinjuku-ku, Tokyo) dan NEC (Minato-ku, Tokyo) telah bersama-sama mengembangkan teknologi dukungan dokter menggunakan AI dan mengonfirmasi keefektifannya.

%20(1).webp)
%20(1).webp)
%20(1).webp)
%20(1).webp)

