DTEX Systemsは、DTEX InINTERCEPT™ プラットフォームに新機能を導入し、ChatGPTなどの生成AIプラットフォームに関連する内部リスクを管理する機能を強化した。このアップデートにより、組織は従業員が大規模な言語モデルと共有するコンテンツの種類を監視および制御できるようになり、独自のデータや知的財産の損失を防ぐことができる。

エンタープライズセクターにおける生成AIツールの採用は増加しており、ガートナーの調査によると、企業の半数以上がこれらのテクノロジーを実験または実装している。ただし、この傾向により、従業員が誤って機密情報を公開する可能性があるため、セキュリティー上の懸念も高まる。DTEXの2024年内部リスク調査レポートによると、大多数の組織がAIツールの内部使用を重大なセキュリティー問題と見なしており、生成AIに関連するリスクに対処するために監視を強化することを支持している組織が多くある。

DTEX InINTERCEPT™ では、GenAIプラットフォームで共有される前に、機密データのコンテンツを精査する機能が提供され、意図的および意図的でない内部者の行動によるデータ侵害を防ぐことを目指している。このプラットフォームのウェブトラフィック検査機能は、プライバシー基準を維持しながら、ユーザーの行動に対する可視性を高める。また、一元的なポリシー管理も提供し、セキュリティーチームがさまざまなGenAIアプリケーションへのアクセスを安全に管理できるようにする。

DTEX SystemsのCEOであるMarshall Heilman氏は、GenAIテクノロジーの二面性を強調し、効率性と革新性を高めることができる一方で、データ漏洩やプライバシー侵害のリスクも伴うと述べた。Heilman氏は、DTEX InINTERCEPT™ の最新の機能強化は、GenAIの利点とデータおよびIPの脅威に対する保護の必要性とのバランスをとることを目指していると述べた。このプラットフォームの行動科学、テクノロジー、インテリジェンス、およびサービスの独自の組み合わせは、内部の脅威に対する包括的な保護を提供し、最近AI3 Risk Assistant機能によって強化され、内部のリスクと意図に関する微妙な洞察が提供される。

出典:プレスリリース