top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

東急リバブル×アルサーガAI業務支援開始

Generatived

24/11/6 5:30

東急リバブル(東京都渋谷区)とアルサーガパートナーズ(東京都渋谷区)は、生成AI「ChatGPT」を用いた業務特化型システムを開発。2024年11月からSNS投稿文章作成業務の支援を開始した。このシステムは、不動産情報の効率的な発信を目的としている。

不動産業界におけるSNSの重要性が増す中、東急リバブルは投稿作業の効率化を図るため生成AI技術を導入。生成AIが原案を作成し、担当者が修正することで、作業時間を大幅に短縮し、投稿件数を増やすことに成功した。

アルサーガパートナーズは、生成AIとシステム開発の経験を活かし、生成AIへの指示をパターン化。これにより、専門性の高い業務を一般的な作業へと変革し、不適切な表現の排除機能も実装した。

東急リバブルは、今後もアルサーガパートナーズと協力し、AIを活用した業務改善を進める。文章作成業務に留まらず、法務や広報など多岐にわたる領域でのAI活用を拡大し、労働人口減少対策や働き方改革、顧客体験の向上を目指す。

この記事を共有:

最新のニュース
NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

26/3/3 0:00

NVIDIAは、通信業界が抱える重要な課題、すなわち6Gテクノロジー向けAIネイティブネットワークの構築に対するソリューションを発表しました。

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

26/3/3 0:00

NVIDIAの最新レポートによると、通信事業者の65%がネットワーク自動化にAIが不可欠であると考えていることが明らかになりました。

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

26/3/3 0:00

アリババは、マルチモーダルエージェントにネイティブな視覚言語機能を追加することを目的とした、最新のオープンソースQwen3.5シリーズを発表しました。

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

26/3/3 0:00

大規模言語モデル(LLM)を導入する組織は、リソース需要が大きく変動する推論ワークロードの管理という課題に直面しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

NVIDIA Aerial Omniverse が効率的な 6G AI ネットワークを実現

26/3/3 0:00

NVIDIAは、通信業界が抱える重要な課題、すなわち6Gテクノロジー向けAIネイティブネットワークの構築に対するソリューションを発表しました。

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

NVIDIA と Tech Mahindra が AI 主導の通信ネットワークを実現

26/3/3 0:00

NVIDIAの最新レポートによると、通信事業者の65%がネットワーク自動化にAIが不可欠であると考えていることが明らかになりました。

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

アリババ、強化されたマルチモーダルエージェント向けQwen3.5を発表

26/3/3 0:00

アリババは、マルチモーダルエージェントにネイティブな視覚言語機能を追加することを目的とした、最新のオープンソースQwen3.5シリーズを発表しました。

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

NVIDIA が LLM 向けスマート GPU スケジューリングを導入

26/3/3 0:00

大規模言語モデル(LLM)を導入する組織は、リソース需要が大きく変動する推論ワークロードの管理という課題に直面しています。

bottom of page