Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
%20(1).webp)
Tim NVIDIA AI mengungkap kelemahan besar dalam model bahasa
Generatived
28/6/24, 05.14
Tim Merah AI NVIDIA telah mengidentifikasi kerentanan dalam cara model bahasa skala besar (LLM) memproses teks. Kerentanan ini dapat dimanfaatkan oleh penyerang untuk memanipulasi integritas sistem AI. Masalahnya terletak pada tokenizernya. Tokenizer mengubah teks menjadi rangkaian ID token yang dapat dipahami model, dan sebaliknya. Tim menemukan bahwa tanpa validasi yang memadai selama inisialisasi tokenizer, penyerang dapat mengubah pengkodean dan penguraian kode token, yang berpotensi menciptakan inkonsistensi antara input pengguna dan perhitungan LLM.
Risiko ini semakin meningkat karena setelah dilatih, tokenizer sering kali digunakan kembali di beberapa model dan tidak berubah saat model diperbarui. Tokenizer ini disimpan sebagai file teks biasa, sehingga setiap pengguna dengan hak istimewa yang memadai dapat mengakses dan mengeditnya. Kerentanan ini memungkinkan penyerang memetakan ulang nilai token dalam file konfigurasi tokenizer, yang berpotensi menyebabkan LLM salah menafsirkan perintah pengguna atau menghasilkan keluaran yang salah.
Misalnya, dengan memodifikasi file .json tokenizer, penyerang dapat mengubah token yang terkait dengan kata "tolak" menjadi kata "izinkan", yang secara efektif membalikkan arti perintah tersebut. Jenis operasi ini, yang disebut serangan pengkodean, dapat mempunyai implikasi serius terhadap keamanan sistem. Demikian pula, serangan decoding dapat mengubah keluaran model dan menyesatkan pengguna dan aplikasi hilir.
Untuk mengatasi ancaman ini, Tim Merah AI NVIDIA telah menerapkan langkah-langkah keamanan yang kuat, termasuk kontrol versi yang ketat dan audit tokenizer, pemeriksaan integritas runtime, dan pencatatan log input dan output yang terperinci. Langkah-langkah ini penting untuk menjaga keamanan dan keandalan LLM serta melindunginya dari potensi penyalahgunaan. Tim ini juga menekankan pentingnya kesadaran dan pendidikan seputar keamanan AI, dan wawasan lebih lanjut akan dibagikan dalam kursus NVIDIA Deep Learning Institute yang akan datang mengenai pembelajaran mesin adversarial. saus:
Bagikan artikel ini:
Tin tức mới nhất
Anker Jepang meluncurkan layanan telepon berbasis AI.
19/2/26, 00.00
Anker Japan (Minato-ku, Tokyo) memperluas fungsionalitas sistem dukungan pelanggan AI-nya, "Anker AI Assistant," yang dikembangkan berdasarkan ChatGPT.
Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan
19/2/26, 00.00
Teikoku Number One Research LLC (Shibuya-ku, Tokyo) telah meluncurkan layanan "Diagnosis AI Mandiri No. 1", yang memanfaatkan AI.
Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI
19/2/26, 00.00
Scope (Chiyoda-ku, Tokyo) dan Polaris.AI (Bunkyo-ku, Tokyo) telah mengembangkan "SCOPY," sebuah layanan diagnostik lantai penjualan berbasis AI.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Anker Jepang meluncurkan layanan telepon berbasis AI.
19/2/26, 00.00
Anker Japan (Minato-ku, Tokyo) memperluas fungsionalitas sistem dukungan pelanggan AI-nya, "Anker AI Assistant," yang dikembangkan berdasarkan ChatGPT.
Layanan Diagnostik AI Nomor Satu Teikoku Diluncurkan
19/2/26, 00.00
Teikoku Number One Research LLC (Shibuya-ku, Tokyo) telah meluncurkan layanan "Diagnosis AI Mandiri No. 1", yang memanfaatkan AI.
Layanan Diagnostik AI di Lantai Penjualan Scope dan Polaris.AI
19/2/26, 00.00
Scope (Chiyoda-ku, Tokyo) dan Polaris.AI (Bunkyo-ku, Tokyo) telah mengembangkan "SCOPY," sebuah layanan diagnostik lantai penjualan berbasis AI.

%20(1).webp)


%20(1).webp)

