NVIDIAは、よりダイナミックで応答性の高いノンプレーアブルキャラクター(NPC)を提供することでゲーム業界を強化するAIテクノロジーの進歩を発表した。NVIDIA Avatar Cloud Engine (ACE)を統合することにより、開発者は、ローカルコンピューティング リソースとクラウドコンピューティング リソースを組み合わせて使用​​して、プレーヤーの入力により自然に反応するNPCを作成できるようになった。このテクノロジーは、音声認識、テキスト読み上げ、表情生成、言語理解を含む4つのAIモデルを利用して、ゲーム内でよりリアルなインタラクションを生み出す。

同社は、AIサービスの品質と範囲の向上において大きな進歩を遂げた。Audio2FaceおよびRiva自動音声認識マイクロサービスが更新され、追加言語をサポートし、精度と感情表現が向上した。これらの機能強化は、NPCがプレーヤーとより現実的な会話や対話を行えるようにすることで、より没入型のゲーム体験を生み出すことを目的としている。

これらの新機能のデモンストレーションで、NVIDIAはConvaiと提携して、Kairosデモの最新バージョンを披露した。このデモでは、AIを活用したキャラクターが3D環境内で人間のような会話や対話を行える可能性が強調された。ConvaiのプラットフォームにはNVIDIAのACEマイクロサービスが組み込まれており、NPCが空間認識を持ち、対話に基づいてアクションを実行できるようになり、仮想世界と現実世界のインタラクションの間の境界線がさらに曖昧になりる。

NVIDIAと主要なデジタルアバター開発者とのコラボレーションにより、これらの革新的なAIテクノロジーをより幅広いユーザーに提供する準備が整っている。Charisma.AI、Inworld、miHoYo、Ubisoftなどの企業は、NVIDIAと協力してACEテクノロジーをゲーム体験に統合しており、よりインタラクティブで魅力的な仮想世界への大きな移行を示している。

ソース:NVIDIA Developer Blog