CultureAIは、セキュリティーチームが職場で従業員と生成AIツールとのやり取りを監視できるように設計された、新しい生成AIソリューションを発表した。このソリューションは、従業員によるこうしたAIツールの使用が増加するにつれて懸念が高まっている、機密データの不注意な共有を検出して対処することを目的としている。このプラットフォームは、潜在的なデータ侵害に対するリアルタイムの可視性を提供することで、イノベーションの必要性と堅牢なセキュリティー対策を維持するという緊急性のバランスをとることを目指している。

同社の最新製品は、生成AIアプリケーションを通じて機密情報の偶発的な共有に関する即時洞察を提供する、ヒューマンリスク管理分野初の製品だ。リアルタイムのアラートとカスタマイズされたコーチングを備え、従業員に安全な実践方法を教育する。このシステムは、個人識別情報などの機密データが生成AI環境内で検出された場合にのみリスクにフラグを立てるように設計されているため、ユーザーの不必要な摩擦が軽減される。

生成AIプラットフォーム上の機密データの検出を強化するために、CultureAIのソリューションはパターン認識と事前定義された用語を採用している。組織は、特定のニーズに合わせてこれらのパターンをカスタマイズしたり、プラットフォームが提供する事前構成されたオプションを利用したりできる。システムの感度は懸念のレベルに応じて調整できるため、セキュリティーチームは効果的に対応の優先順位を付けることができる。

CultureAIの生成AIソリューションは、ダッシュボードを通じて即時レポートとリスク評価を容易にするだけでなく、継続的な従業員教育、リスク軽減、データ保護基準へのコンプライアンスもサポートする。このプラットフォームの包括的なレポートツールにより、時間の経過に伴う行動変化の追跡と分析が可能になる。このソリューションに興味のある組織は、既存のブラウザー拡張機能と統合することができ、2024年2月7日に予定されているライブデモンストレーション ウェビナーに参加するよう招待される。

出典:プレスリリース