Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
.webp)
Vertex AIがLLM対応セマンティック検索をリリース
Generatived
23/9/26 5:21
エンタープライズ向けに信頼性の高いGen AIサービスを構築するには、グラウンディング、埋め込み、ベクトル検索の概念を理解することが重要だ。この代表的な例は、ミリ秒単位で実行できる800万件のスタックオーバーフローの質問に対するセマンティック検索だ。このデモは一般公開されており、ユーザーは「STACKOVERFLOW」を選択し、コーディングに関する質問をクエリーとして入力し、プラットフォームに投稿された何百万もの質問に対してテキスト検索を実行できる。このデモの特徴は、LLM対応のセマンティック検索、ビジネス上の事実に基づいていること、およびスケーラビリティーと速度だ。このソリューションを実現する主な要因は、Vertex AI Embeddings for Textで生成されたエンベディングと、Vertex AI Vector Searchによる高速でスケーラブルなベクトル検索だ。埋め込みAPIを使用すると、LLM機能と組み合わせて、さまざまなテキスト処理タスクに埋め込みを適用できる。これらのタスクには、LLM対応のセマンティック検索、テキスト分類、推奨、クラスタリング、異常検出、感情分析などが含まれる。これらは全て、LLMレベルのセマンティクスを深く理解することで処理できる。Embeddings APIとVector Searchを組み合わせることで、Embeddingsを使用して、LLM出力を低レーテンシーで実際のビジネスデータに「グラウンディング」することができる。Stack Overflowデモで使用されるアーキテクチャーに加えて、グラウンディングのもう1つの一般的な方法は、ベクトル検索結果をLLMに入力し、LLMがユーザーに対する最終的な回答テキストを生成することだ。LangChainは、このパイプラインを実装するための人気のあるツールであり、Vertex AI Gen AI埋め込みAPIとVector Searchは、LangChainの統合に最適だ。

