top of page

Generatived (Beta) | Cung cấp tin tức và xu hướng mới nhất về AI sáng tạo

logo.png

Phát triển đối tác AI của Alibaba Cloud Nhật Bản

Generatived

4:30 7/3/25

Alibaba Cloud (Hàng Châu) đã công bố chương trình hợp tác AI mới cho thị trường Nhật Bản. Công ty sẽ hợp tác với các công ty Nhật Bản để phát triển các giải pháp Generative AI có thể tùy chỉnh bằng mô hình AI độc quyền "Qwen". Giám đốc quốc gia Masahiro Yosano cho biết công ty sẽ tập trung vào việc cung cấp các dịch vụ bản địa hóa.

Alibaba Cloud đã mở rộng quan hệ đối tác với các công ty Nhật Bản, bao gồm cả Sparticle, để đẩy nhanh digital transformation thông qua phát triển giải pháp AI chung dựa trên mô hình Qwen mới nhất. Dòng Qwen 2.5 sẽ được ra mắt tại thị trường Nhật Bản với khả năng đa ngôn ngữ.

Phiên bản mới nhất của mô hình nền tảng video "Tongyi Manso (Wan)", "Wan2.1", cũng đã được giới thiệu tại Nhật Bản. Wan2.1 đã cải thiện độ chính xác của việc tạo video và phù hợp với ngành truyền thông và quảng cáo. Nó đã nhận được điểm cao trên bảng xếp hạng VBench.

Theo một cuộc khảo sát của Alibaba Cloud, các công ty Nhật Bản đang tụt hậu trong việc áp dụng AI cho mục đích phát triển bền vững. Tuy nhiên, việc áp dụng AI đang ngày càng trở nên cấp thiết hơn, khi công nhận rằng công nghệ số sẽ đẩy nhanh tiến độ. Yosano nhấn mạnh rằng Alibaba Cloud cam kết áp dụng AI và thúc đẩy đổi mới.

Chia sẻ bài viết này:

Tin tức mới nhất
Benchmark hiệu năng AI của Patsnap IP Practice đã được phát hành.

Benchmark hiệu năng AI của Patsnap IP Practice đã được phát hành.

0:00 14/1/26

Patsnap (Singapore) đã tạo ra "PatentBench," một bộ công cụ đánh giá chuẩn được thiết kế đặc biệt cho hoạt động thực tiễn về sở hữu trí tuệ.

FiberMall ra mắt bộ thu phát quang 400G và 800G.

FiberMall ra mắt bộ thu phát quang 400G và 800G.

0:00 14/1/26

Thâm Quyến, Trung Quốc – FiberMall đã bắt đầu sản xuất hàng loạt và vận chuyển các bộ thu phát quang 400G và 800G được thiết kế để đáp ứng nhu cầu kết nối tốc độ cao trong lĩnh vực Trí tuệ Nhân tạo (AI).

KunlunMeta ra mắt thiết bị di động AI GPT-Station.

KunlunMeta ra mắt thiết bị di động AI GPT-Station.

0:00 14/1/26

LAS VEGAS, ngày 9 tháng 1 năm 2026 – Triển lãm Điện tử Tiêu dùng (CES) tại Las Vegas đã giới thiệu những tiến bộ mới nhất trong lĩnh vực trí tuệ nhân tạo (AI)

NVIDIA công bố TensorRT Edge-LLM để tăng cường trí tuệ nhân tạo (AI).

NVIDIA công bố TensorRT Edge-LLM để tăng cường trí tuệ nhân tạo (AI).

0:00 14/1/26

NVIDIA đã công bố TensorRT Edge-LLM, một khung phần mềm mã nguồn mở C++ mới được thiết kế để cải thiện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM)

Copyright © 2024 Generatived - All right Reserved.

Chia sẻ bài viết này:

Chia sẻ bài viết này:

Generatived AI Logo

Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.

  • Facebook
  • X

Hãy theo dõi chúng tôi

Ngôn ngữ

Tin tức mới nhất
Benchmark hiệu năng AI của Patsnap IP Practice đã được phát hành.

Benchmark hiệu năng AI của Patsnap IP Practice đã được phát hành.

0:00 14/1/26

Patsnap (Singapore) đã tạo ra "PatentBench," một bộ công cụ đánh giá chuẩn được thiết kế đặc biệt cho hoạt động thực tiễn về sở hữu trí tuệ.

FiberMall ra mắt bộ thu phát quang 400G và 800G.

FiberMall ra mắt bộ thu phát quang 400G và 800G.

0:00 14/1/26

Thâm Quyến, Trung Quốc – FiberMall đã bắt đầu sản xuất hàng loạt và vận chuyển các bộ thu phát quang 400G và 800G được thiết kế để đáp ứng nhu cầu kết nối tốc độ cao trong lĩnh vực Trí tuệ Nhân tạo (AI).

KunlunMeta ra mắt thiết bị di động AI GPT-Station.

KunlunMeta ra mắt thiết bị di động AI GPT-Station.

0:00 14/1/26

LAS VEGAS, ngày 9 tháng 1 năm 2026 – Triển lãm Điện tử Tiêu dùng (CES) tại Las Vegas đã giới thiệu những tiến bộ mới nhất trong lĩnh vực trí tuệ nhân tạo (AI)

NVIDIA công bố TensorRT Edge-LLM để tăng cường trí tuệ nhân tạo (AI).

NVIDIA công bố TensorRT Edge-LLM để tăng cường trí tuệ nhân tạo (AI).

0:00 14/1/26

NVIDIA đã công bố TensorRT Edge-LLM, một khung phần mềm mã nguồn mở C++ mới được thiết kế để cải thiện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM)

bottom of page