Gorillaの記事によると、人工知能(AI)は進化を続けており、大規模言語モデル(LLM)は様々なタスクで大きな進歩を遂げているとのことである。しかし、API(Application Programming Interface)呼び出しによるツール活用におけるその有効性は課題となっている。GPT-4のような最先端のLLMは、正確な入力引数の生成に苦労することが多く、誤ったAPIコールの書き方を、いかにも正解のように答えることが頻繁にある。

この問題に取り組むため、UC BerkeleyとMicrosoft Researchの研究者は、GPT-4を上回る精度のAPIコールを生成する、細かく調整されたLLaMAベースのモデルであるGorillaを発表した。Gorillaは、外部ツールを効果的に活用し、特定のタスクに適したAPIを選択するLLMの能力を向上させる。

Gorillaは、「Document Rretriver」(ドキュメントの更新をチェッカーする機能)と組み合わせることで、試行時のドキュメントの変更に対応する優れた適応を見せる。これにより、ユーザーによる更新やバージョン変更に柔軟に対応し、実用性を高める。さらにGorillaは、LLMに直接プロンプトを出す場合によく見られる幻覚の問題を大幅に軽減している。APIコールを正確に生成することで、ツールの正しい利用法をGPT-4よりも、高く保証する。

Gorillaの機能を評価するために、研究者はHuggingFace、TorchHub、TensorHubなどの人気のAPIからなる包括的なデータセットである「APIBench」を導入した。検索システムをGorillaと統合することで、LLMが頻繁に更新されるドキュメントに追随しながら、より正確にツールを活用できる可能性を示している。

研究チームは、GitHubでGorillaのコード、モデル、データ、デモを公開し、AIとNLPの分野でのコラボレーションと探求をさらに促している。これらのリソースをオープンにすることで、研究者や開発者がGorillaの基盤の上で、新たな可能性を探求することを奨励している。

大規模言語モデルは、テキストの要約から言語翻訳に至るまで、すでにAIの多くの側面に革命をもたらしている。しかし、APIコールによるツールを利用する場合には限界があり、その可能性を十分に発揮していなかった。Gorillaにより、UC Berkeleyの研究者は、これらの障壁を打破するための大きな一歩を踏み出したといえる。