Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
%20(1).webp)
Tim teknologi AI memperingatkan risiko keselamatan pada model generatif.
Generatived
12/2/26, 00.00
Penelitian terbaru mengungkapkan bahwa keselarasan keamanan antara model bahasa besar (LLM) dan model difusi dapat dirusak oleh teknik yang disebut optimasi kebijakan relatif kelompok (GRPO). Meskipun awalnya dimaksudkan untuk memperkuat perilaku model, GRPO dapat dimanipulasi untuk melemahkan mekanisme keamanan model. Proses ini, yang disebut GRP-Obliteration, memberi penghargaan kepada model yang menghasilkan respons yang memenuhi perintah berbahaya, sehingga secara bertahap mengikis protokol keamanan.
Studi ini mengungkapkan bahwa bahkan satu perintah berbahaya saja dapat secara signifikan mengubah perilaku keselamatan suatu model. Misalnya, perintah untuk membuat artikel berita yang menyesatkan sudah cukup untuk mengacaukan 15 model bahasa yang berbeda. Yang mengejutkan, meskipun perintah tersebut tergolong ringan, hal itu tidak mencegah model untuk menjadi lebih toleran terhadap berbagai kategori berbahaya. Ini menunjukkan bahwa sistem-sistem ini sensitif terhadap sinyal pelatihan negatif yang minimal sekalipun.
Implikasi penelitian ini meluas melampaui AI berbasis teks hingga model pembangkitan gambar. Teknik serupa telah digunakan untuk menghilangkan keselarasan pada model difusi teks-ke-gambar demi keamanan, menunjukkan bahwa kerentanan keselarasan merupakan masalah yang lebih luas dalam sistem AI. Temuan kami menyoroti perlunya pengembang untuk melakukan penilaian keamanan menyeluruh saat mengadaptasi model AI, karena keselarasan mungkin lebih sensitif daripada yang diasumsikan sebelumnya, terutama dalam kondisi yang merugikan.
Tim peneliti mendorong penelitian lebih lanjut tentang ketahanan sistem Generative AI . Dengan membagikan temuan ini, mereka bertujuan untuk membantu pengembangan infrastruktur AI yang lebih kuat dan aman. Untuk pemahaman komprehensif tentang penelitian ini, pihak yang berminat dapat merujuk pada makalah penelitian terperinci yang diterbitkan di arXiv.
Bagikan artikel ini:
Tin tức mới nhất
OpenAI memperkuat aksesibilitas AI lokal dalam skala global.
10/2/26, 00.00
OpenAI memposisikan AI sebagai infrastruktur nasional yang penting, serupa dengan listrik, menyoroti kebutuhan global akan sistem AI yang tidak hanya canggih tetapi juga sesuai secara budaya dan hukum.
OpenAI: Pendekatan baru untuk pengembangan berbasis AI
10/2/26, 00.00
OpenAI (San Francisco) telah menerbitkan artikel baru tentang metode pengembangan menggunakan Codex, sebuah model AI untuk pengkodean.
Fundamental Umumkan Pendanaan Sebesar $255 Juta, Memperluas Kemampuan AI
10/2/26, 00.00
Fundamental, sebuah perusahaan AI yang berspesialisasi dalam analitik prediktif, telah mengumpulkan pendanaan sebesar $255 juta.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
OpenAI memperkuat aksesibilitas AI lokal dalam skala global.
10/2/26, 00.00
OpenAI memposisikan AI sebagai infrastruktur nasional yang penting, serupa dengan listrik, menyoroti kebutuhan global akan sistem AI yang tidak hanya canggih tetapi juga sesuai secara budaya dan hukum.
OpenAI: Pendekatan baru untuk pengembangan berbasis AI
10/2/26, 00.00
OpenAI (San Francisco) telah menerbitkan artikel baru tentang metode pengembangan menggunakan Codex, sebuah model AI untuk pengkodean.
Fundamental Umumkan Pendanaan Sebesar $255 Juta, Memperluas Kemampuan AI
10/2/26, 00.00
Fundamental, sebuah perusahaan AI yang berspesialisasi dalam analitik prediktif, telah mengumpulkan pendanaan sebesar $255 juta.



%20(1).webp)

