top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

シフトプラス自治体AI拡張思考モード導入

Generatived

25/3/14 4:15

シフトプラス(宮崎県都城市)は、自治体向けシステム「自治体AI zevo」に「Claude 3.7 Sonnet」の拡張思考モードを導入したと発表。このモードでは、AIが複雑な問題を段階的に解決し、より深い分析が可能になる。

「自治体AI zevo」は、財務や法務、データ分析などの複雑な分析や、STEM分野の専門的問題解決に対応。長文脈の処理や制約最適化、詳細なデータ生成など、高度なAI活用が期待される。

シフトプラスは、通信処理の見直しにより全体的なパフォーマンスの向上も実現。今後も改善を続け、ユーザーが快適に「自治体AI zevo」を利用できるよう努力するとしている。

同社は、令和6年度から「自治体AI zevo」契約者に職員数分のアカウントを提供。音声認識AI文字起こしツール「eRex」との連携も可能で、1ヶ月の無償トライアルを提供している。

この記事を共有:

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

bottom of page