Metaは、Thorn、All Tech is Human、その他のテクノロジーリーダーと連携し、生成AIが児童搾取に使用されるリスクに対処することを発表した。同社は、AIテクノロジーの責任ある開発を確実にするために、Safety by Designの原則を実装することに注力している。これらの原則は、児童の安全リスクに積極的に取り組み、有害なコンテンツの作成を防ぐことを目的としている。

同社は、AIモデルが虐待的なコンテンツを生成するのを防ぐために、トレーニングデータセットの責任ある調達と保護に重点を置いている。Metaは、データセットから児童性的虐待コンテンツ(CSAM)と児童性的搾取コンテンツ(CSEM)を全て削除し、確認されたケースを当局に報告することに尽力している。さらに、同社は反復的なストレステストとフィードバック ループを使用して、AIモデルを改良し、安全対策を強化している。

Metaは、リアルな虐待コンテンツの作成におけるAIの悪用と戦うために、コンテンツの出所ソリューションも開発している。透かしなどの手法は、AI生成コンテンツの識別に役立つことが検討されている。生成AIモデルの導入は、児童の安全に関する厳格な評価の対象であり、同社は自社の製品とサービスを不正なコンテンツから保護することの重要性を強調している。

プラットフォームの安全性を維持するために、Metaは新たな脅威に先手を打って有害なツールの拡大を防ぐための研究と技術に投資している。同社は、プラットフォームからCSAMとCSEMを検出して排除するために積極的に取り組んでおり、全てのユーザーにとって安全なオンライン環境を構築するという取り組みを強化している。

ソース:Meta Newsroom