top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

IVRy AIコンタクトセンター開始

Generatived

26/3/3 0:00

IVRy(東京都港区)は、AIを活用した「アイブリー AI Contact Center」の提供を開始すると発表した。このソリューションは、対話型音声AIを用いて業務を効率化し、コンタクトセンターの運営を支援する。

国内の労働力不足が深刻化する中、コンタクトセンター業界は人材確保のコスト増加に直面している。IVRyは、AI技術を駆使して業務自動化を進め、オペレーターの負担軽減と顧客体験の向上を図る。

「アイブリー AI Contact Center」は、AIボイスエージェントが問い合わせの一次応答を行い、オペレーターへの転送や連携を可能にする。また、新たに開発された「IVRy CTI」を利用することで、AIと人の協働がスムーズに行える。

IVRyは、通話内容の自動ラベリングや分析を行う「IVRy Analytics」と、データを統合・解析する「IVRy Data Hub」を通じて、対話データの資産化を実現。これにより、迅速なオペレーション改善と応対品質の向上が可能となる。

この記事を共有:

最新のニュース
NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

26/3/3 0:00

NVIDIAは、通信業界が抱える重要な課題、すなわち6Gテクノロジー向けAIネイティブネットワークの構築に対するソリューションを発表しました。

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

26/3/3 0:00

NVIDIAの最新レポートによると、通信事業者の65%がネットワーク自動化にAIが不可欠であると考えていることが明らかになりました。

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

26/3/3 0:00

アリババは、マルチモーダルエージェントにネイティブな視覚言語機能を追加することを目的とした、最新のオープンソースQwen3.5シリーズを発表しました。

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

26/3/3 0:00

大規模言語モデル(LLM)を導入する組織は、リソース需要が大きく変動する推論ワークロードの管理という課題に直面しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

26/3/3 0:00

NVIDIAは、通信業界が抱える重要な課題、すなわち6Gテクノロジー向けAIネイティブネットワークの構築に対するソリューションを発表しました。

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

26/3/3 0:00

NVIDIAの最新レポートによると、通信事業者の65%がネットワーク自動化にAIが不可欠であると考えていることが明らかになりました。

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

26/3/3 0:00

アリババは、マルチモーダルエージェントにネイティブな視覚言語機能を追加することを目的とした、最新のオープンソースQwen3.5シリーズを発表しました。

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

26/3/3 0:00

大規模言語モデル(LLM)を導入する組織は、リソース需要が大きく変動する推論ワークロードの管理という課題に直面しています。

bottom of page