top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

Scalebase新CEO毛利悠記就任発表

Generatived

25/7/2 0:00

Scalebase(東京都港区)は、2025年7月1日付で毛利悠記を代表取締役CEOに迎え、経営体制を一新した。同日、社名を「アルプ」から「Scalebase」に変更。サブスクリプションビジネス向け販売管理システム「Scalebase」を提供し、250社以上の導入実績がある。

技術革新の中、事業環境の変化に迅速に対応し、顧客への価値提供に集中するため経営体制を見直した。毛利はCROとして販売部門を統括し、事業成長を牽引。今後はプロダクト開発と販売、カスタマーサクセスの連携を強化し、継続的なアップデートに努める。

新体制では、生成AI技術の活用やデータドリブンな分析を通じて、顧客の事業成長を支援するプロダクトへと進化させる計画だ。伊藤浩樹は取締役としてScalebaseの成長を支えると述べている。

Scalebaseは、サブスクリプション型ビジネスの複雑なバックオフィス業務を解決する「Scalebase」と「Scalebase ペイメント」を開発。信頼できるデータに基づく迅速な意思決定を支援し、企業が価値提供に注力できる世界を目指す。

この記事を共有:

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

bottom of page