Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif

NVIDIA Mengumumkan Langkah-Langkah Keamanan untuk Alat Pengkodean AI
Generatived
14/10/25, 00.00
Para pengembang semakin banyak mengadopsi perangkat lunak pengkodean berbasis AI seperti Cursor, OpenAI Codex, Claude Code, dan GitHub Copilot untuk meningkatkan produktivitas mereka. Meskipun bermanfaat, perangkat lunak ini juga dapat menciptakan kerentanan keamanan baru dengan memperluas permukaan serangan untuk ancaman siber. Perangkat lunak ini mengandalkan prinsip model bahasa berskala besar (LLM) untuk mengotomatiskan tugas bagi pengembang, tetapi sifat otonomnya dapat menyebabkan hasil yang tidak terduga.
Para pakar keamanan menunjukkan bahwa perangkat AI ini dapat dieksploitasi melalui serangan watering hole, di mana aktor ancaman memasukkan kode berbahaya untuk menguasai mesin pengembang. Perangkat ini memiliki kemampuan untuk melakukan tindakan dengan tingkat akses yang sama dengan pengguna, menciptakan loop eksekusi yang sulit diprediksi dan dikendalikan, sehingga semakin meningkatkan risiko.
Salah satu teknik yang digunakan penyerang adalah memanipulasi interaksi alat dengan tugas pengguna, seperti mengedit kode atau menjalankan perintah, dengan menyuntikkan instruksi berbahaya ke dalam sumber data seperti masalah GitHub atau permintaan tarik (pull request). Hal ini dapat menyebabkan eksekusi kode jarak jauh (RCE) pada mesin pengembang. Misalnya, muatan buatan yang tersembunyi dalam paket Python yang tampaknya tidak berbahaya dapat secara tidak sengaja dipasang oleh alat AI dan membahayakan sistem.
Untuk memitigasi risiko ini, para ahli merekomendasikan penerapan sikap "asumsikan injeksi cepat" saat merancang dan mengevaluasi aplikasi AI. Alat seperti pemindai kerentanan LLM NVIDIA dan NeMo Guardrails dapat membantu melindungi LLM dari ancaman ini. Praktik terbaik yang direkomendasikan meliputi pembatasan otonomi agen-agen ini, mewajibkan persetujuan manusia untuk operasi sensitif, dan menjalankannya di lingkungan yang terisolasi. Dalam kasus Cursor, risiko dapat dimitigasi lebih lanjut dengan menonaktifkan kemampuan eksekusi otomatis atau membatasi eksekusi hanya pada perintah yang sah. Seiring industri memanfaatkan alat-alat canggih ini, pemahaman dan penerapan langkah-langkah keamanan akan menjadi penting untuk melindungi dari potensi serangan siber.
Bagikan artikel ini:
Tin tức mới nhất
Layanan wawancara AI generasi berikutnya PKSHA diluncurkan
5/12/25, 00.00
PKSHA (Bunkyo-ku, Tokyo) telah mengumumkan pengembangan fungsi baru untuk layanan wawancara AI interaktif "SHaiN" yang bekerja sama dengan perusahaan grupnya Talent and Assessment
Alat pengembangan Sun Asterisk AI diumumkan
5/12/25, 00.00
Sun Asterisk (Chiyoda-ku, Tokyo) telah merilis Plugin MoMorph Figma , alat pengembangan yang memanfaatkan AI.
Upstage × Nota Kesepahaman Ekspansi Pasar NetApp Jepang
5/12/25, 00.00
Upstage (Tokyo) dan NetApp telah menandatangani nota kesepahaman strategis untuk mempercepat ekspansi bisnis di pasar Jepang.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Layanan wawancara AI generasi berikutnya PKSHA diluncurkan
5/12/25, 00.00
PKSHA (Bunkyo-ku, Tokyo) telah mengumumkan pengembangan fungsi baru untuk layanan wawancara AI interaktif "SHaiN" yang bekerja sama dengan perusahaan grupnya Talent and Assessment
Alat pengembangan Sun Asterisk AI diumumkan
5/12/25, 00.00
Sun Asterisk (Chiyoda-ku, Tokyo) telah merilis Plugin MoMorph Figma , alat pengembangan yang memanfaatkan AI.
Upstage × Nota Kesepahaman Ekspansi Pasar NetApp Jepang
5/12/25, 00.00
Upstage (Tokyo) dan NetApp telah menandatangani nota kesepahaman strategis untuk mempercepat ekspansi bisnis di pasar Jepang.


%20(1).webp)



