Traceable AI は、重要なアプリケーションでの大規模言語モデル (LLM) の使用に関連する新たなサイバーセキュリティ リスクに対処するため、新しい生成AI APIセキュリティ機能の早期アクセス プログラムを発表しました。同社の取り組みは、プロンプト インジェクションやデータ漏洩などの AI 固有の問題を悪用した攻撃に対して脆弱な、LLM、サービス、ユーザー間のやり取りを容易にする API を保護することを目的としています。

同社の最新製品は、 生成AIを組み込んだアプリケーションを保護するために設計された一連のツールを導入することで、 APIセキュリティ プラットフォームを強化しています。これらのツールには、 生成AI API のセキュリティを監視するための専用ダッシュボード、これらの API の包括的な検出とカタログ化、LLM API のカスタマイズされた脆弱性テストなどが含まれます。さらに、このプラットフォームは、 APIトラフィックのリアルタイム監視と、機密データの漏洩を防ぐメカニズムを提供します。

Traceable AI の共同創設者兼 CTO である Sanjay Nagaraj 氏は、現代の組織内で LLM を利用したアプリケーションを保護することの重要性を強調しました。同氏は、新しいセキュリティ機能により、企業は安全なAPIエコシステムを維持しながら AI テクノロジーを活用できるようになると確信しています。これらの機能は、同社と顧客とのコラボレーションに基づいて開発されており、組織が AI 駆動型アプリケーション特有のセキュリティ上の課題に自信を持って対処できるようにすることを目指しています。

Traceable AI は、 生成AI API に包括的なセキュリティを提供する初のAPIセキュリティ プラットフォームとして際立っています。OmniTrace™ エンジンを活用したこのプラットフォームは、すべてのAPIトランザクションを精査し、効果的な脅威の検出と対応に必要なコンテキストを提供します。この機能により、Traceable AI は、プロンプト インジェクションなどの LLM 関連のセキュリティ脅威を独自に識別して軽減できる市場リーダーとしての地位を確立しています。

出典:プレスリリース