top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

THRUSTER新アプリMOFUREベータ版発表

Generatived

25/7/2 0:00

THRUSTER(東京都千代田区)は、AI×キャラクターエンジン「Nu-Ma Engine」を用いた新アプリ「MOFURE」のベータ版をiOSでリリース。睡眠シーンに特化し、ユーザーは選んだキャラクターと会話が楽しめる。デイリーログインボーナスキャンペーンも実施中。

「MOFURE」では、キャラクターがユーザーの情報を学習し、寝落ち通話のような体験を提供。STRATEのアンケートによると、10代・20代の約4割が就寝時に寝落ち通話を経験しているという。THRUSTERは、この文化をキャラクターとの通話で広げることを目指す。

アプリは声に焦点を当て、3Dモデルやモーションは採用せず、ハンズフリーでキャラクターとの対話を実現。キャラクターデザインはイラストレーターとの共創で、今後も様々なキャラクターや機能の追加を予定している。

「Nu-Ma Engine」は、キャラクターの動きや感情表現、対話機能にAIを活用し、マルチデバイスに対応。THRUSTERは、様々な分野でのカスタマイズ提供を通じて、キャラクターとの新たなつながりを創出していく。

この記事を共有:

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

bottom of page