top of page

Generatived(Beta)|生成AIの最新ニュースとトレンドを提供

logo.png

アデコとベクターHDのAI協力展開

Generatived

25/12/5 0:00

アデコ(東京都千代田区)はベクターホールディングス(東京都港区)との連携を発表。AI活用基盤の整備に向けたデータアノテーション領域での協力を開始する。国内企業のAI導入に必要な安全かつ持続可能な環境作りを目指す。

両社は、AIインフラ技術とデータ品質管理の知見を融合。日本語の特性に適した高品質な学習データの提供を進める。将来的には医療や教育分野での専門アノテーション人財の育成も検討している。

AIの社会基盤としての重要性が増す中、信頼性や安全性、持続性が注目されている。アデコとベクターHDは、これらを兼ね備えた日本発のAIインフラ構築に貢献する方針だ。

アデコはAdecco Groupの日本法人として、人財サービスを提供。ベクターホールディングスはソフトウェアダウンロードサイト「Vector」運営などを行い、AIインフラ事業にも注力している。

この記事を共有:

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

Copyright © 2024 Generatived - All right Reserved.

この記事を共有:

この記事を共有:

Generatived AI Logo

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

言語

最新のニュース
AWS が 123RF の強化された AI 検索機能を強化

AWS が 123RF の強化された AI 検索機能を強化

25/12/5 0:00

Amazonウェブ サービス(AWS)は、マレーシアのストックメディアプラットフォームである123RFに、生成型人工知能(Gen AI)を導入し、サービスを強化しました。

OpenAI財団、非営利団体に4050万ドルを助成

OpenAI財団、非営利団体に4050万ドルを助成

25/12/5 0:00

OpenAI Foundationは、地域社会の発展と人工知能(AI)の可能性の活用を目指し、全米208の非営利団体に4,050万ドルの助成金を配分すると発表しました。

Manus が戦略的クラウドプロバイダーとして AWS を選択

Manus が戦略的クラウドプロバイダーとして AWS を選択

25/12/5 0:00

世界初の汎用AIエージェントを開発したManus社は、戦略的クラウドサービスプロバイダーとしてAmazon Web Services(AWS)を選定しました。

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

NVIDIA GB200 NVL72がMoEモデルのパフォーマンスを向上

25/12/5 0:00

Kimi K2 ThinkingやDeepSeek-R1など、最もインテリジェントなオープンソースモデル上位10位は、人間の脳のタスク特異的な領域活性化に類似したMixture-of-Experts(MoE)アーキテクチャを採用しています。

bottom of page