Generatived (Beta) | Cung cấp tin tức và xu hướng mới nhất về AI sáng tạo

NVIDIA tăng tốc quá trình suy luận LLM với Skip Softmax.
Generatived
0:00 18/12/25
Các kỹ sư học máy làm việc với các mô hình ngôn ngữ lớn (LLM) thường phải đối mặt với một thách thức lớn: khi độ dài ngữ cảnh của mô hình tăng lên, chi phí tính toán liên quan đến cơ chế chú ý tăng vọt. Để giải quyết vấn đề này, một kỹ thuật mới gọi là Skip Softmax được giới thiệu. Kỹ thuật này tăng tốc thời gian suy luận mà không cần huấn luyện lại. Tương thích với NVIDIA TensorRT-LLM, kỹ thuật này đạt được tốc độ suy luận nhanh hơn tới 1,4 lần cả về thời gian đến token đầu tiên và thời gian cho mỗi token đầu ra.
Thuật toán Skip Softmax hoạt động bằng cách khai thác tính chất thưa thớt vốn có của các điểm quan tâm trong mô hình tuyến tính hỗn hợp (LLM) và tự động cắt tỉa các khối quan tâm. Bằng cách tính toán logit lớn nhất của một khối và so sánh nó với giá trị lớn nhất toàn cục, chúng ta có thể bỏ qua các khối có đóng góp không đáng kể vào kết quả cuối cùng. Quá trình này không chỉ tiết kiệm tài nguyên tính toán mà còn giảm nhu cầu tải dữ liệu từ bộ nhớ, cho phép sử dụng phần cứng hiệu quả hơn.
Lợi ích của Skip Softmax nằm ở khả năng tương thích với các mô hình được huấn luyện trước hiện có và khả năng tối ưu hóa cho các lõi tensor và hệ thống phân cấp bộ nhớ của GPU NVIDIA Hopper và Blackwell. Khi được sử dụng kết hợp với các kỹ thuật tối ưu hóa khác, chẳng hạn như XAttention, nó có thể cải thiện hiệu suất hơn nữa mà không làm giảm độ chính xác. Kỹ thuật này đặc biệt hiệu quả trong các trường hợp có độ dài ngữ cảnh lớn, giúp giảm đáng kể gánh nặng tính toán trong cả giai đoạn điền trước và giải mã của suy luận LLM.
Để triển khai Skip Softmax, bạn có thể sử dụng thiết lập chú ý thưa (sparse attention) của API LLM trong NVIDIA TensorRT-LLM. Kỹ thuật này được hỗ trợ trên các GPU trung tâm dữ liệu của NVIDIA và có thể được kích hoạt bằng một thay đổi cấu hình đơn giản. Để biết thêm thông tin, vui lòng tham khảo các tài liệu như BLASST: Dynamic Blocked Attention Sparsity via Softmax Thresholding và tài liệu TensorRT-LLM. Các tài liệu này cung cấp thông tin chi tiết về kỹ thuật này và các ứng dụng của nó.
Chia sẻ bài viết này:
Tin tức mới nhất
Tự động hóa dữ liệu sản phẩm với Mindia AI
0:00 19/12/25
Phòng thí nghiệm Dữ liệu AI của Mindia (Minato-ku, Tokyo) đã phát triển một mô-đun AI dựa trên văn bản và hình ảnh sản phẩm.
Ấn phẩm mới của Impress: Trí tuệ nhân tạo và cách thức làm việc
0:00 19/12/25
Nhà xuất bản Impress (Chiyoda-ku, Tokyo) sẽ phát hành cuốn sách mới "90% công việc, đối với cả con người và trí tuệ nhân tạo
Quá trình tìm kiếm trường hợp trò chuyện AI của Levatec bắt đầu.
0:00 19/12/25
Levertec (Tokyo) vừa ra mắt tính năng mới "Tìm việc làm bằng AI Chat (Beta)" cho dịch vụ hỗ trợ việc làm tự do trong lĩnh vực CNTT, "Levertec Freelance".
Copyright © 2024 Generatived - All right Reserved.
Chia sẻ bài viết này:
Chia sẻ bài viết này:
Danh mục
Tin tức
AI và luật/hệ thống/kinh tế/xã hội
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Tin tức mới nhất
Tự động hóa dữ liệu sản phẩm với Mindia AI
0:00 19/12/25
Phòng thí nghiệm Dữ liệu AI của Mindia (Minato-ku, Tokyo) đã phát triển một mô-đun AI dựa trên văn bản và hình ảnh sản phẩm.
Ấn phẩm mới của Impress: Trí tuệ nhân tạo và cách thức làm việc
0:00 19/12/25
Nhà xuất bản Impress (Chiyoda-ku, Tokyo) sẽ phát hành cuốn sách mới "90% công việc, đối với cả con người và trí tuệ nhân tạo
Quá trình tìm kiếm trường hợp trò chuyện AI của Levatec bắt đầu.
0:00 19/12/25
Levertec (Tokyo) vừa ra mắt tính năng mới "Tìm việc làm bằng AI Chat (Beta)" cho dịch vụ hỗ trợ việc làm tự do trong lĩnh vực CNTT, "Levertec Freelance".

%20(1).webp)
%20(1).webp)
%20(1).webp)
%20(1).webp)

