Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

機密データ保護が AI セキュリティ対策の強化を発表
Generatived
23/10/5 11:02
Googleは、機密データの保護を通じて生成AIワークロードのセキュリティーを強化することに関するブログを作成した。最近の調査では、AIセキュリティーに関する懸念事項トップ3のうちの2つとして「データ漏洩」と「プライバシー」が挙げられている。これは、基盤アプリケーションのトップ10リスクの1つとして特定されているデータ漏洩に関連するリスクであるプロンプトインジェクションのコンテキストに特に関連する。従って、堅牢な生成AIアプリケーションの開発では、トレーニングデータと基礎応答データを保護することが重要だ。機密データ保護を使用して、Gen AIアプリケーションを保護するためのデータ中心のアプローチが検討されている。これには、実際の例を含むJupyter Notebookが含まれている。他のAI/MLワークロードと同様、生成AIには、特定のビジネスニーズに合わせてデータを調整または拡張する必要がある。ただし、組織は多くの場合、個人情報などの機密要素が含まれる可能性がある独自のデータを使用してモデルをカスタマイズおよびトレーニングするリスクを軽減するのに苦労する。個人データから機密要素のみを特定して削除するのは困難な場合がある。さらに、編集戦略はデータセットの統計的特性に影響を与えたり、統計的に不正確な一般化につながる可能性がある。これらの課題に対処するために、クラウドデータ損失防止(DLP) APIを含む機密データ保護サービスは、さまざまな検出と変換のオプションを提供する。機密データ保護を使用すると、トレーニングから調整、推論まで、生成AIモデルのライフサイクル全体にわたってデータ保護の追加レイヤーを追加できる。これらの保護手法を早期に導入すると、モデルのワークロードがより安全でコンプライアンスに準拠したものになり、後で再トレーニングや再調整が必要になる無駄なコストのリスクを軽減できる。このサービスには、名前、個人識別子、財務データ、医療コンテキスト、人口統計データなどの機密データ要素を迅速に識別するのに役立つ150を超える組み込みinfoTypeが含まれているという。

