Financial Timesの記事によると、AI大手のOpenAIは最近、欧州連合(EU)のAI法案について、同社がEUでの事業を停止する可能性があるとの懸念を表明した。2023年5月26日付のCNBCの報道によると、OpenAI CEOのSam Altman氏は当初、規制があまりにも同社の負担になる場合、同社はこの地域から撤退せざるを得なくなると警告した。しかし、その後Altman氏は立場を翻し、OpenAIは「撤退する予定はない」と述べ、欧州のAI規制について生産的な話し合いを行ってきたとした。

EUのAI法は、医療機器への応用や雇用・融資などの意思決定プロセスなど、リスクの高いAI技術の利用の規制を企図している。しかし、OpenAIのChatGPTのような大規模言語モデルを含む生成型AI技術の急増を受け、関係議員は、一般的な用途で広く使用されているシステムにも規制を拡大することを提案している。この提案のため、テック企業の間では、過剰な規制の可能性やイノベーションへの影響に関する懸念が高まっている。

新しい規則では、ChatGPTやGoogleのBardのような大規模なAIシステムを含む「基盤モデル」の開発者は、AIが生成したコンテンツを開示し、学習に使用した著作権保護の対象となる要約データの公開が求められることになる。OpenAIは、ChatGPTを支えるモデルの1つであるGPT-4について、リリース後に情報を開示しなかったことで批判にさらされた経緯がある。Altman氏は懸念を表しつつも、EUのAI法が2024年の最終化までに改正されるだろうと楽観的な見通しを示した。

Altman氏のコメントは当初、EU市場からの撤退の可能性を示唆していたが、その後の発言でOpenAIの欧州へのコミットメントが強調された。EUの規制案は、今後1年間、加盟国と欧州委員会の間で交渉が行われる予定である。最新の動向としては、内部市場委員会と自由権規約委員会が、AIシステムの安全性、透明性、無差別性、環境への配慮を確保するための条項を含む、AIのルールに関する交渉指令案を採択した。

EUのAI法はリスクベースのアプローチをとっており、AIアプリケーションをリスクの度合いに基づいて分類している。禁止対象は、サブリミナルや意図的な操作手法、脆弱性の悪用、ソーシャルスコアリングなどである。また、同法は、公共の安全、基本的権利、環境といったリスクの高い分野にも対応している。さらに、違法なコンテンツの生成を防ぎ、AIが生成したコンテンツの開示の促進を目指し、基盤モデルや生成型AIに関する透明性対策も盛り込まれている。

EUの規制への取り組みは、Tech企業から支持と批判の両方が寄せられている。OpenAIやGoogleなどの企業は、AI規制の必要性を支持する一方で、さらなる調査や議論の重要性を強調している。一部の批判者は、規制がイノベーションを阻害する可能性があり、企業が満たすべき具体的な基準を欠いていると主張している。

交渉が継続しEUのAI法が進展する中で、市民の権利の保護、イノベーションの促進、AIガバナンスの枠組みの確立の間でバランスをどう取るかが引き続き焦点となる。これらの議論の結果は、欧州におけるAI規制の将来に向けた方向性を決め、世界のAI政策に影響を与える可能性があるとみられる。