カリフォルニア州サンノゼ – Aporiaは最近、研究開発部門であるAporia Labsの拡大を発表した。この取り組みは、特に生成型AIアプリケーション向けのAIリスク防止戦略を考案し実行するチームの能力を強化することを目的としている。強化されたチームは、データ侵害に対する保護とAI通信の完全性の確保に重点を置き、AIによる幻覚や偏見に対する増大する懸念に対処する。

同社のAI Guardrailsソリューションはこの取り組みの最前線にあり、倫理的なAIの使用を促進するために大規模な言語モデルとユーザーの間に適合するように設計されている。チャットボットなどのAIシステムからの不適切または誤った出力をブロックしながら、機密性の高いユーザーデータを保護することを目的としている。AIテクノロジーの急速な進歩と、それに伴うセキュリティーリスクの増大を考慮すると、Aporia Labsの拡張はタイムリーだ。

Aporia Labsは、AIにおける幻覚という一般的な問題に取り組む予定であり、最近の研究では、生成AIを使用するMLエンジニアの間でそのような幻覚の発生率が高いことが示されている。この研究所の使命には、こうした幻覚に対抗し、データ漏洩を防ぎ、ブランド言語の完全性を維持するための高度なポリシーを開発することが含まれている。AporiaのCTO、Alon Gubkin氏は、リスクを最小限に抑え、システムの整合性を強化することでAIの未来を再構築するという同社の取り組みを強調した。

AporiaのCEO、Liran Hason氏は、AIセキュリティーの進化をサイバーファイアウォールの進化と比較し、新たな脅威に対応するには急速な進歩の必要性を強調した。Aporia Labsは、AI製品が新しい脆弱性に対処できるようにするため、Guardrailsソリューションを改良することに専念している。近い将来、Aporia Labsは、AIシステムに内在するリスクをさらに明らかにするために、独自のデータとレポートを公開する予定だ。Aporia LabsとAI Guardrailsソリューションの詳細については、興味のある方は同社のウェブサイトを参照してください。

出典:プレスリリース