MITの研究者らが発表した最近の白書によると、国際的な機関が高度なAIに関連する機会とリスクを管理する必要性があると強調している。オックスフォード大学、モントリオール大学、トロント大学、コロンビア大学、ハーバード大学、スタンフォード大学、OpenAIなどの著名な機関が参加するこの共同論文では、公平な利益とリスク軽減を確保する上でのグローバルAIガバナンスの重要性を強調している。

白書では、国際的な管理に必要な具体的な利点とリスク、必要なガバナンス機能、およびそれらの機能を果たすのに適した機関について検討している。

国際機関や多国間機関は、特にサービスが十分に受けられていないコミュニティーや発展途上国にAIテクノロジーへのアクセスを提供する上で既に重要な役割を果たしている。コミュニティーのニーズに対応し、限られたインターネットアクセスやコンピューティング能力などの障壁を克服するために組織間の協力を促進することで、国際的な取り組みが包括的なAI開発を促進している。

この論文では、高度なAI機能に関連するリスクについても取り上げている。自動ソフトウェア開発、化学研究、テキスト生成などの分野でAIの悪用に対するには、脅威に関する世界的なコンセンサスと、悪用の特定と対策基準の確立が必要だ。白書では、安全性研究における協力により、責任ある安全なAI導入がさらに保証されるとしている。

さらにこの白書では、グローバルな調整とガバナンスのための4つの制度モデルを概説している。

モデル1 - AIフロンティアに関する政府間委員会設置:一般の人々の意識を高め、政策立案者に専門知識を提供し、AIについて科学的な情報に基づいた理解に貢献することで合意を形成することを目指している。

モデル2 - 政府間または複数の利害関係者による高度AIガバナンス組織:規範や基準を設定し、実装を支援することで、グローバルリスクに対処する国際的な連携を促進する。

モデル3 - フロンティアAIの共同組織:官民パートナーシップを促進して、サービスが十分に受けられていない社会が高度なAIテクノロジーに確実にアクセスできるようにし、安全性とガバナンス目的のために国際的なAIアクセスを促進する。

モデル4 - AIセーフティープロジェクト:AIリスクを軽減するための共同研究開発をサポートし、研究者やエンジニアに必要なリソースと高度なAIモデルへのアクセスを提供する。

これらの制度モデルは有望だが、運用上の課題は依然として残っている。科学的な不確実性、AIの急速な進歩、公共部門の能力の限界、国際的な調整の困難などが、効果的なガバナンスに障害をもたらしている。

このように白書は、AIのガバナンスと調整における国際機関の役割を決定するために、政府と利害関係者の間で議論を増やすよう求めている。グローバルなAIガバナンスは、アクセス格差に対処し、リスクを管理し、コラボレーションを促進することで、高度なAIテクノロジーの責任ある公平な開発を保証できることだろう。