OpenAIは、いわゆるフロンティアAIモデルに関連するリスクを管理し、公共の安全を確保する必要性が高まっていると7月6日に表明した

フロンティアAIモデルとは、社会に深刻なリスクをもたらす可能性のある、高機能な基盤モデルを指す。これらのモデルは予期せず出現する可能性のある危険な機能を備えている可能性があり、悪用や拡散を防ぐことが困難になる。

これらの課題に対処するために、専門家はフロンティアAIモデルの規制のための3つの主要な構成要素の実装を提案している。まず、フロンティアAIに取り組む開発者にとって適切な要件を特定するための標準設定プロセスを確立する必要がある。これは、開発プロセス中に従う必要がある安全基準とガイドラインを定義するのに役立つ。

第二に、フロンティアAIモデルの開発を規制当局に可視化するために、登録と報告の要件を整備する必要がある。これにより、規制機関はこれらのモデルに関連する進捗状況と潜在的なリスクをより効果的に監視できるようになる。

第三に、フロンティアAIモデルの開発および展開中に安全基準へのコンプライアンスを保証するためのメカニズムを実装する必要がある。業界の自主規制は重要な最初のステップだが、基準を確立して施行するには、より広範な社会的議論と政府の介入が必要になる。

同社は、この目標を達成するために利用できるオプションがいくつかある、としている。提案の1つは、監督当局に執行権限を付与し、フロンティアAIモデルの使用を監視および規制できるようにすることだ。もう1つのオプションは、開発者にこれらのモデルの開発と展開のためのライセンスを取得することを要求するライセンス制度を導入することだ。

これらの議論が、公共の安全に対するリスクと、フロンティアAI開発の進歩に伴うイノベーションの利点とのバランスをとることについての継続的な議論に貢献することが期待される。フロンティアAIモデルにおける新たなリスクを管理するには、これらの強力なテクノロジーの責任ある開発と展開を確実にするために、業界、社会、規制機関が協力する必要がある。