Metaが公開した記事によると、同社は8年前にパリにFAIRハブを設立して以来、ロンドン、テルアビブ、チューリッヒに拠点を設けてきた。その各拠点での研究内容を紹介している。

FAIRの設立時に行った最も重要な決断の一つは、「探索的研究とオープンサイエンスを中心に据える」ということだったという。リリースの中で「私たちは定期的に外部の研究者と共同研究を行っていますが、これは、それが最も早く、最も責任ある方法で進歩を遂げるという強い仮説を持っているからです」と表現している。また、FAIR EMEAの責任者であるNaila Murray氏は、「私たちは、特に博士課程プログラムを通じて、何世代ものAI研究者を育成するために機関と協力してきました。博士課程の学生の多くが、この分野に重要な貢献をしています」と述べている。

パリが大規模言語モデル研究の舞台

今年の初めに、パリの研究者はMetaのLLMであるLLaMA(Large Language Model Meta AI)を構築・展開するチームを結成したという。「これは、AIのサブフィールドにおける研究者の研究を促進するために設計された、最先端の基礎的大規模言語モデル」であり、「創造的な文章の生成、数学の定理の解明、タンパク質の構造予測、読解問題の解答など、LLMは、AIが数十億人の人々に大規模な恩恵をもたらす可能性を示す最も明確な事例の一つ」だと述べている。

パリではDINOv2の研究も

さらにパリでは、Metaが手がけるオープンソースのコンピュータービジョン基盤モデルDINOv2の研究をしている。この自己監視型コンピュータービジョン基盤モデルは、物体認識と画像分類の分野で、AIモデルがラベルなしで視覚データを理解できるようにすることを意図している。つまり、ラベルあり(教師あり)学習の限界を超えて、AIによる視覚の認識性能を強化・拡大するものだ。

3Dモデリングはロンドンとパリ

さらにMetaの研究者たちは3Dモデリングと生成 AI において画期的な進歩を達成したと述べている。 ロンドンとパリで、拡張現実で現実のオブジェクトと仮想オブジェクトをシームレスに組み合わせるモジュール式フレームワークである Implicitron を発表したことを指している。Implicitronはneural implicit representationを使い、複雑な形状と色を正確に再構築するという。

Make-A-SceneとMake-A-Videoはテルアビブが主導

テルアビブのチームはユーザーがテキストやスケッチを通じてビジョンを記述し、超現実的なアートワークを作成できるようにするマルチモーダル生成AI「Make-A-Scene」を開発したそうだ。 また、テキストプロンプトを独自のビデオ クリップに変換するAIシステムである「Make-A-Video」もテルアビブで開発された。 これらの進歩は 3D モデリングと生成 AI の可能性を再定義し、視覚表現を強化するものだ。