Generatived (Beta) | Cung cấp tin tức và xu hướng mới nhất về AI sáng tạo
.webp)
OpenAI và các công ty AI hàng đầu khác tham gia cải thiện độ an toàn và độ tin cậy của AI
Generatived
0:55 24/7/23
OpenAI và các phòng thí nghiệm AI hàng đầu khác đang thực hiện những nỗ lực tự nguyện nhằm tăng cường tính an toàn, bảo mật và độ tin cậy của công nghệ và dịch vụ AI. Nỗ lực này, do Nhà Trắng điều phối, là một bước quan trọng nhằm thúc đẩy quản trị AI hiệu quả trên toàn thế giới. Là một phần trong sứ mệnh phát triển AGI an toàn và hữu ích của chúng tôi, OpenAI đang tích cực thử nghiệm và cải tiến các phương pháp quản trị cụ thể cho loại mô hình cơ bản hiệu suất cao mà OpenAI tạo ra. Chúng tôi cũng đang đầu tư vào nghiên cứu để đưa ra quy định, bao gồm các kỹ thuật để đánh giá các tính năng nguy hiểm tiềm tàng trong các mô hình AI. Những sáng kiến tự nguyện này nhằm mục đích thúc đẩy sự phát triển và sử dụng an toàn, bảo mật và minh bạch các công nghệ AI. Những điều này phù hợp với luật pháp và quy định hiện hành và nhằm mục đích thúc đẩy chế độ pháp lý và chính sách cho AI sáng tạo. Các cam kết này sẽ có hiệu lực cho đến khi các quy định về các vấn đề tương tự được thiết lập, nhưng các công ty riêng lẻ có thể vượt quá các cam kết này. An toàn là ưu tiên hàng đầu và các công ty thực hiện các sáng kiến này cam kết tiến hành đội đỏ nội bộ và bên ngoài trên các mô hình hoặc hệ thống của họ. Điều này bao gồm việc đánh giá các mối lo ngại về an ninh quốc gia như khai thác, rủi ro xã hội, sinh học, mạng và các lĩnh vực an ninh khác. Công ty sử dụng các chuyên gia độc lập về chủ đề này để phát triển cơ cấu nhóm đỏ chuyên biệt và chi tiết cho mỗi lần phát hành mẫu mới ra công chúng. Nó cũng sẽ tập trung vào việc giải quyết các rủi ro sinh học, hóa học và phóng xạ, khả năng mạng, tương tác hệ thống và sử dụng công cụ, khả năng tự sao chép và các rủi ro xã hội như thành kiến và phân biệt đối xử. OpenAI và các công ty khác cam kết thúc đẩy nghiên cứu an toàn AI và xuất bản các quy trình an toàn và nhóm đỏ. Tại OpenAI, để tăng cường sự tin cậy và an toàn, các công ty cố gắng chia sẻ thông tin giữa họ và chính phủ về các rủi ro về niềm tin và an toàn, các khả năng nguy hiểm cũng như nỗ lực phá vỡ các biện pháp bảo vệ cũng như thúc đẩy sự an toàn của AI tiên phong. Thiết lập hoặc tham gia vào các diễn đàn hoặc cơ chế để phát triển. các tiêu chuẩn chung và thực tiễn tốt nhất về bình đẳng giới. Sự hợp tác này sẽ tạo điều kiện thuận lợi cho việc chia sẻ thông tin và phát triển các nhóm công tác kỹ thuật về các rủi ro và mối đe dọa mới nổi. Bảo mật là một khía cạnh quan trọng và các công ty thực hiện các sáng kiến này sẽ đầu tư vào an ninh mạng và bảo vệ khỏi mối đe dọa nội bộ để bảo vệ sức nặng của các mô hình độc quyền và chưa được phát hành của họ. Hạn chế quyền truy cập vào trọng lượng mô hình đối với nhân viên được ủy quyền và thiết lập chương trình phát hiện mối đe dọa nội bộ mạnh mẽ. Ngoài ra, chúng tôi khuyến khích các bên thứ ba khám phá và báo cáo các vấn đề cũng như lỗ hổng thông qua hệ thống tiền thưởng và chương trình tiền thưởng lỗi của chúng tôi. Để nuôi dưỡng niềm tin, các công ty sẽ phát triển các cơ chế cho phép người dùng xác định xem nội dung âm thanh hoặc video có phải do AI tạo ra hay không. Tạo một hệ thống hình mờ và xuất xứ mạnh mẽ cho nội dung do AI tạo ra, đồng thời phát triển các công cụ và API để xác minh nguồn gốc của nội dung. Các công ty cũng báo cáo công khai các khả năng, hạn chế của mô hình hoặc hệ thống cũng như các lĩnh vực sử dụng phù hợp và không phù hợp. Họ sẽ ưu tiên nghiên cứu về các rủi ro xã hội do hệ thống AI gây ra, chẳng hạn như thành kiến và phân biệt đối xử có hại, đồng thời bảo vệ quyền riêng tư. Ngoài ra, các công ty thực hiện các sáng kiến này sẽ phát triển và triển khai các hệ thống AI tiên tiến để giải quyết những thách thức lớn nhất của xã hội, như biến đổi khí hậu, phát hiện ung thư và các mối đe dọa trên mạng. Hỗ trợ các nỗ lực thúc đẩy giáo dục và đào tạo AI và giúp công chúng hiểu được bản chất, khả năng, hạn chế và tác động của công nghệ. OpenAI và các công ty khác đang hợp tác với các chính phủ, tổ chức xã hội dân sự và học viện để thúc đẩy quản trị AI. Những nỗ lực tự nguyện này sẽ đóng góp những thực tiễn cụ thể và cụ thể cho cuộc tranh luận đang diễn ra về quy định AI, đồng thời khuyến khích sự phát triển và sử dụng công nghệ AI một cách có trách nhiệm và có lợi bằng cách ưu tiên sự an toàn, bảo mật và sự tin cậy.
Chia sẻ bài viết này:
Tin tức mới nhất
HELLO base và Goaico AI Watanabe-kun ra mắt
0:00 17/3/26
HELLO base (Thành phố Nagoya, tỉnh Aichi) và Goaico (Tokyo) đã ra mắt "AI Watanabe-kun," một trợ lý AI với kiến thức chuyên sâu về bán bảo hiểm doanh nghiệp.
Các công ty AI đang mở rộng nguồn doanh thu bằng cách sử dụng thanh toán Stripe .
0:00 17/3/26
Stripe(San Francisco) thông báo rằng các công ty trí tuệ nhân tạo như Lovable, Gamma và ElevenLabs đã chọn họ làm đối tác thanh toán.
Công ty Polimill tiến hành đào tạo về trí tuệ nhân tạo cho nhân viên thành phố Sukumo.
0:00 17/3/26
Công ty Polimill (quận Minato, Tokyo) đã tổ chức khóa đào tạo sử dụng "QommonsAI" cho nhân viên thành phố Sukumo, tỉnh Kochi.
Copyright © 2024 Generatived - All right Reserved.
Chia sẻ bài viết này:
Chia sẻ bài viết này:
Danh mục
Tin tức
AI và luật/hệ thống/kinh tế/xã hội
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Tin tức mới nhất
HELLO base và Goaico AI Watanabe-kun ra mắt
0:00 17/3/26
HELLO base (Thành phố Nagoya, tỉnh Aichi) và Goaico (Tokyo) đã ra mắt "AI Watanabe-kun," một trợ lý AI với kiến thức chuyên sâu về bán bảo hiểm doanh nghiệp.
Các công ty AI đang mở rộng nguồn doanh thu bằng cách sử dụng thanh toán Stripe .
0:00 17/3/26
Stripe(San Francisco) thông báo rằng các công ty trí tuệ nhân tạo như Lovable, Gamma và ElevenLabs đã chọn họ làm đối tác thanh toán.
Công ty Polimill tiến hành đào tạo về trí tuệ nhân tạo cho nhân viên thành phố Sukumo.
0:00 17/3/26
Công ty Polimill (quận Minato, Tokyo) đã tổ chức khóa đào tạo sử dụng "QommonsAI" cho nhân viên thành phố Sukumo, tỉnh Kochi.



%20(1).webp)


