IBMは最近、Mixtral-8x7Bモデルの最適化されたバージョンを導入することでAI製品を強化した。これにより、データ処理のレーテンシーが大幅に削減される可能性が実証された。この改善は量子化として知られる技術によるもので、モデルのサイズが縮小するだけでなくメモリー需要も軽減され、処理時間の高速化につながり、コストとエネルギー使用量の両方を削減することで企業に利益をもたらす可能性がある。

サードパーティーやオープンソースコミュニティーのAIモデルを含む、多様なAIモデルを提供するという同社の戦略は、クライアントのさまざまなニーズを満たすように設計されている。IBMのwatsonx AIおよびデータプラットフォームには、高速データ処理機能が認められているMixtral-8x7Bモデルが搭載されている。この動きは、エンタープライズAIソリューションの強力な選択肢を提供するIBMの広範な取り組みの一環であり、お客様が生成AIを活用して革新的な洞察とビジネスモデルを実現できるようにする。

AI導入における柔軟性と選択肢に対するIBMの取り組みは、watsonxプラットフォーム上のモデル・カタログの拡大からも明らかだ。Mixtral-8x7Bモデルは、効率性とコンテキスト関連の洞察で知られており、スパースモデリングと専門家の混合技術を採用してパフォーマンスを最適化する。IBMの上級副社長、カリーム・ユスフ氏は、さまざまな業界にわたってイノベーションを推進するための適切なツールを顧客に提供することに同社が注力していることを強調した。

IBMは、Mixtral-8x7Bに加えて、日本語の大規模言語モデルであるELYZA-japanese-Llama-2-7bモデルも利用可能にし、Metaのオープンソースモデルをプラットフォームに統合し続けている。IBMのAIモデル製品の継続的な拡大は、AI開発者とビジネスリーダーの動的なエコシステムをサポートするという同社の戦略の一環だ。

出典:プレスリリース