最近の政策ワーキングペーパーでは、著名なテクノロジー企業が、ユーザーの安全性とプライバシーをAI製品の開発に組み込むことの重要性を強調している。このペーパーでは、AIツールは、個人情報の不注意な漏洩などの問題を防ぐために、組み込みの保護機能を使用して設計する必要があると提案している。同社のプライバシーに対するアプローチは、確立されたデータ保護の実践と原則に基づいており、強力なプライバシー保護とデータ最小化技術が確実に導入されている。

このペーパーでは、特にトレーニングと開発の段階で、生成AIにプライバシー原則を適用する際の課題と考慮事項について詳しく説明している。抽象的な概念と関係を理解するためのモデルのトレーニングにおいて、個人データが果たす小さいながらも重要な役割を強調している。同社は、これらのモデルは個人を特定することを目的としているのではなく、偏見を減らしてパフォーマンスを向上させることを目的としていることを明確にしている。アプリケーションレベルでは、プライバシーの侵害を防ぎ、出力フィルターや自動削除機能などの効果的な保護手段を実装することに焦点が移っている。

議論は、組織がユーザーのプライバシーフィードバックを理解し、サイバー防御を強化するのを支援するなど、生成AIがプライバシーを強化する可能性にまで及ぶ。この論文は、個人情報を侵害することなくAIの積極的な利用をサポートする公共政策と業界標準を提唱している。また、合成データや差分プライバシーなどのプライバシー強化技術を、AIが個人のプライバシーを維持しながら社会に利益をもたらす例として挙げている。

同社は、AI時代においてプライバシー法が適応的かつ技術中立的であり続けるよう、協力的な取り組みを求めている。協力することで、関係者は強力なプライバシー保護とその他の社会的目標のバランスを取ることができる。このテクノロジーの巨人は、社会の利益のために、生成型AIの責任ある発展に貢献するというコミットメントを再確認している。

ソース:The Keyword, Google