- Intel công bố sẽ cùng các chuyên gia AI từ nhiều lĩnh vực tham gia nhóm làm việc về an toàn AI do MLCommons tổ chức. Mục tiêu của nhóm làm việc là tạo ra một nền tảng linh hoạt để đánh giá các yếu tố an toàn và rủi ro của các công cụ và mô hình AI.
- Tầm quan trọng của an toàn AI: Việc đào tạo và triển khai các mô hình ngôn ngữ lớn (LLMs) và các công cụ AI một cách có trách nhiệm là rất quan trọng để giảm thiểu các rủi ro xã hội do các công nghệ mạnh mẽ này gây ra. Intel đã nhận thức được tầm quan trọng của các vấn đề đạo đức và nhân quyền liên quan đến việc phát triển công nghệ, đặc biệt là AI.
- Về nhóm làm việc về an toàn AI: Nhóm làm việc về an toàn AI được tổ chức bởi MLCommons với sự tham gia của một nhóm đa ngành của các chuyên gia AI. Nhóm sẽ phát triển một nền tảng và một bộ các bài kiểm tra từ các đóng góp để hỗ trợ các tiêu chuẩn an toàn AI cho các trường hợp sử dụng đa dạng.
- Về sự tham gia của Intel: Intel dự định sẽ chia sẻ các kết quả và các thực tiễn tốt nhất về an toàn AI và các quy trình và phương pháp phát triển có trách nhiệm như red-teaming và các bài kiểm tra an toàn. Danh sách đầy đủ các thành viên tham gia có thể được tìm thấy trên trang web của MLCommons.
Phát ngôn của Deepak Patil là một phần của thông cáo báo chí của Intel về việc tham gia nhóm làm việc về an toàn AI do MLCommons tổ chức.
Trong phát ngôn này, ông nhấn mạnh cam kết của Intel trong việc thúc đẩy AI một cách có trách nhiệm. Ông cũng công nhận sự phổ biến của các mô hình ngôn ngữ lớn (LLMs) và tầm quan trọng của việc giải quyết các vấn đề an toàn trong phát triển và triển khai AI cùng với các bên liên quan trong hệ sinh thái
Article Categories:
Tin tức