top of page
Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
logo.png

生成AIアプリのセキュリティリスクと対策:Netskopeレポート

Generatived

2023年7月26日

Secure Access Service Edge (SASE) ソリューションの大手プロバイダーであるNetskopeは、企業における AI の使用状況とそれに伴うセキュリティ リスクに関する初めての包括的な分析を発表しました。 「クラウドと脅威レポート」では、生成型 AI アプリの採用が増加しており、それが機密データ漏洩事件の急増につながっていることを明らかにしています。この記事では、レポートの主要な調査結果を検討し、リスクを軽減し、AI ツールの安全な導入を確保するための効果的な制御の実装に関する洞察を提供します。Netskope の調査によると、生成 AI アプリの使用量は過去 2 か月だけで 22.5% 増加しました。 10,000 人を超えるユーザーを抱える企業は、毎日平均 5 つの AI アプリを使用していることがわかり、その中で最も人気があるのが ChatGPT です。このレポートは、AI アプリにアクセスするユーザーの数が今後 7 か月以内に 2 倍になると予測しており、導入のペースが速いことを示しています。このレポートは、機密データ、特にソースコードが生成 AI アプリを通じて驚くべき速度で共有されていることを強調しています。企業ユーザー 10,000 人ごとに、機密データの漏洩インシデントが毎月約 183 件発生しています。ソース コードとは別に、共有される他の種類の機密データには、規制されたデータ、個人を特定できる情報、ソース コードに埋め込まれたパスワードとキーが含まれます。機密データの漏洩を防ぎ、AI アプリの安全な導入を確保するには、組織は効果的な管理を実装する必要があります。 Netskope は、最も効果的な制御として、データ損失防止 (DLP) と対話型ユーザー コーチングの組み合わせを推奨しています。 DLP テクノロジーは機密情報の投稿を検出して防止でき、ユーザー コーチングは AI アプリの使用に関する会社のポリシーを従業員に思い出させることができます。AI 関連のコンテンツやアプリケーションへのアクセスをブロックすることは簡単な解決策のように思えるかもしれませんが、従業員の生産性を妨げ、企業のイノベーションを阻害します。 Netskope のデータによると、金融サービスやヘルスケアなどの高度に規制された業界では、ほぼ 5 分の 1 の組織が ChatGPT の全面禁止を実施しているのに対し、テクノロジー分野では 20 分の 1 の組織しか実施していません。組織は、完全に禁止するのではなく、従業員の意識とデータ ポリシーを進化させ、セキュリティと生産性のバランスをとることに重点を置く必要があります。AI アプリを安全に導入できるようにするには、組織は総合的なアプローチを採用する必要があります。これには、攻撃から保護するためのドメイン フィルタリング、URL フィルタリング、コンテンツ インスペクションの実装が含まれます。さらに、組織は、正当なビジネス目的を果たさないアプリや、不当なリスクをもたらすアプリへのアクセスをブロックする必要があります。これらの対策をユーザー コーチングや最新の DLP テクノロジーと組み合わせることで、組織は機密データを保護しながら AI ツールの利点を安全に活用できます。Netskope のクラウドと脅威レポートでは、企業内での生成 AI アプリの使用量の増加と、それに伴う機密データ漏洩のリスクが強調されています。データ漏洩を防止し、AI ツールを安全に導入するには、組織は DLP テクノロジーやユーザー コーチングなどの効果的な管理を実装する必要があります。セキュリティと生産性のバランスを取ることで、組織は機密データを保護しながら AI の可能性を最大限に活用できます。

Generatived

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

Copyright © 2024 Generatived - All right Reserved.

bottom of page