Googleが現地時間7月19日に「The keyword」で、同社のAIのリスクを検証するAIレッドチームの存在を明らかにした。同社は過去にSecure AI Framework(SAIF)を紹介していたが、今回のFの重要な構成要素こそAIレッドチームだと述べている。このチームは、組織を現実世界の潜在的な脅威に備えるために、さまざまな敵をシミュレートする倫理的ハッカーのグループだ。

AIシステムのコンテキストにおけるレッドチーム化

軍事慣行に由来するレッドチームは、指定されたチームが「ホーム」チームに対して敵対的な役割を果たす。GoogleのAIレッドチームは、この概念を最新のAIの進歩に取り入れ、AIの主題に関する専門知識を活用して複雑な技術的攻撃を実行する。Google Threat IntelligenceチームとのコラボレーションとGoogle DeepMindの調査により、シミュレートされた敵対的なアクティビティーの現実性が保証される。

AIシステムに対するレッドチーム攻撃の一般的なタイプ

GoogleのAIレッドチームは、関連する調査を使用して実際のAI製品と機能をテストする。彼らの演習は、テクノロジーの導入方法に基づいて、セキュリティー、プライバシー、および悪用の脆弱性を明らかにすることを目的としている。レッドチーム化で使用されるTTPs(Tactics(戦術)、Techniques(技術)、Procedures(手順)の略語)には、即時攻撃、トレーニングデータの抽出、モデルのバックドア、敵対的な例、データ ポイズニング、漏洩が含まれる。

学んだ教訓と今後の展望

AIレッドチームの取り組みにより、既にAIシステムの脆弱性が特定されており、複雑な攻撃に取り組むチームの専門知識が不可欠であることが証明されている。レッドチームの調査結果に対処することは課題を引き起こす可能性があるが、研究と製品開発の取り組みを推進する、としている。

今回公表されたレポートでは、重要なAI導入を効果的に保護するための定期的なレッドチーム演習の重要性を強調している。従来のセキュリティー制御と組み合わせることで、レッド チーム化によりAIシステムの防御が強化される。Googleのレッドチームは、進化する脅威に適応し続け、他の組織がSAIFを推進し、業界のセキュリティー標準を向上させるために協力するよう促している。