Legit Security は、組織がソフトウェア開発プロセス内で人工知能 (AI) モデルの使用に関連するリスクを特定し、軽減できるようにする新機能を発表しました。これらの機能強化は、ソフトウェア開発ライフサイクル全体にわたって AI サプライ チェーンを保護するための実用的な手順を提供することで、セキュリティ上の懸念に対処することを目的としています。

同社の研究チームは、「AIジャッキング」などのAIサプライチェーン攻撃の潜在的な危険性を強調し、サードパーティのAIモデルを安全に管理することの重要性を強調しています。 Legit Securityの最新ツールは、より詳細な精査を提供し、セキュリティチームと開発チームがファイルの安全性、モデルストレージ、全体的なモデルの評判などの問題を含むAIモデルの脆弱性を特定して対処できるようにします。最初の焦点は、広く使用されているHuggingFace AIモデルハブです。

これらの新機能に加えて、Legit Security はこれまでにも AI 生成コードのリスク管理に役立つ機能を導入しています。これには、AI 生成コンテンツの人間によるレビューの義務付けなどのポリシーの適用や、侵害されたコードの展開を防ぐための保護策の実装が含まれます。Legit の最高技術責任者である Liav Caspi 氏は、ソフトウェア開発におけるサードパーティの AI モデル統合の急速な成長を強調し、開発プラクティスを最初から最後まで保護するための継続監視とベストプラクティスの順守を含む責任ある AI フレームワークを提唱しています。

Legit Security の強化された AI 検出ツールは、開発者環境におけるサードパーティ コンポーネントに関連するリスクを軽減するように設計されています。安全でないモデルが使用されている場合に開発者に警告を発し、AI サプライ チェーンの全体的な保護に貢献して、AI テクノロジーを活用する組織にとってより安全な開発エコシステムを確保します。

出典:プレスリリース