Operaは、さまざまなローカルLarge Language Model (LLM)のサポートを統合する、Opera Oneブラウザーの新機能を発表した。この取り組みにより、ユーザーはブラウザー内からこれらのAIモデルに直接アクセスして管理できるようになり、デバイス自体でデータを処理することでユーザーのプライバシーが強化される。このセレクションには、Llama、Vicuna、Gemmaなどのモデルが含まれており、実験的なAI機能への早期アクセスを提供することを目的としたOperaのAI Feature Dropsプログラムの一部だ。

同社はこの機能をOpera Oneの開発者ストリームで利用できるようにし、ユーザーはデータ処理に好みのLLMを選択できるようになった。ローカルモデルを利用するには、ユーザーは最新のOpera Developerバージョンに更新し、機能をアクティブ化する手順に従う必要がある。これらのローカルLLMは、大量のストレージ容量を必要とし、OperaのオンラインAria AIサービスの代替手段を提供し、オフラインデータの処理を可能にする。

AIによるユーザーエクスペリエンスの向上に対するOperaの取り組みは、2023年初頭のOpera Oneの発売からも明らかだ。このブラウザーはモジュール設計と高度なアーキテクチャーで知られており、さまざまなインターフェイスからアクセスできるAriaブラウザーAIが含まれている。ローカルLLMを組み込むというOperaの最新の動きは、ブラウザーおよびゲーム担当副社長のKrystian Kolondra氏が述べたように、AIドメイン内での機能を拡張するための継続的な取り組みを反映している。

Operaはウェブブラウジングテクノロジーのパイオニアであり、革新的で安全なブラウジング ソリューションで世界中の何百万人ものユーザーに応え続けている。同社は1995年に設立され、ノルウェーのオスロに本社を置き、ナスダック証券取引所に上場しており、あらゆるデバイスで優れたインターネットエクスペリエンスを提供することに注力し続けている。

出典:プレスリリース