OpenAI xây dựng team kiểm tra rủi ro AI, ChatGPT

ChatGPT OpenAI đang xem xét nghiêm túc toàn bộ các rủi ro an toàn liên quan đến AI và ra mắt team kiểm tra rủi ro AI.

OpenAI, công ty nghiên cứu và triển khai trí tuệ nhân tạo (AI) đứng sau ChatGPT, đang triển khai một sáng kiến ​​mới nhằm đánh giá một loạt rủi ro liên quan đến AI.

OpenAI đang xây dựng một team mới chuyên theo dõi, đánh giá, dự báo và bảo vệ các rủi ro thảm khốc tiềm ẩn bắt nguồn từ AI, công ty thông báo vào ngày 25 tháng 10.

Các rủi ro liên quan đến AI mà OpenAI nghiên cứu

Được gọi là “Preparedness”, bộ phận mới của OpenAI sẽ đặc biệt tập trung vào các mối đe dọa AI tiềm ẩn liên quan đến 4 vấn đề sau:

  • Thuyết phục cá nhân
  • An ninh mạng
  • Các mối đe dọa hóa học, sinh học, phóng xạ và hạt nhân (CBRN)
  • Tự nhân rộng và thích ứng (ARA)

Được dẫn dắt bởi Aleksander Madry, team sẽ cố gắng trả lời các câu hỏi như mức độ nguy hiểm của hệ thống AI biên giới khi bị lạm dụng cũng như liệu các tác nhân độc hại có thể triển khai trọng lượng mô hình AI bị đánh cắp hay không.

Nhận định của OpenAI về các rủi ro AI trong tương lai

“Chúng tôi tin rằng các mô hình AI tiên tiến, sẽ vượt quá khả năng hiện có của các mô hình tiên tiến nhất hiện có, có tiềm năng mang lại lợi ích cho toàn nhân loại”, OpenAI viết và thừa nhận rằng các mô hình AI cũng gây ra “rủi ro ngày càng nghiêm trọng”. Công ty nói thêm:

“Chúng tôi xem xét nghiêm túc toàn bộ các rủi ro an toàn liên quan đến AI, từ các hệ thống chúng ta có ngày nay cho đến tầm xa nhất của siêu trí tuệ. […] Để hỗ trợ sự an toàn của các hệ thống AI có hiệu suất cao, chúng tôi đang phát triển phương pháp tiếp cận của mình để chuẩn bị cho rủi ro thảm họa.”

Theo bài đăng trên blog, OpenAI hiện đang tìm kiếm nhân tài có nền tảng kỹ thuật khác nhau cho team mới của mình. Ngoài ra, công ty đang triển khai Thử thách chuẩn bị AI để ngăn chặn hành vi lạm dụng nghiêm trọng, cung cấp tín dụng API trị giá 25.000 USD cho 10 bài gửi hàng đầu của mình.

OpenAI trước đây cho biết họ đang lên kế hoạch thành lập một team mới chuyên giải quyết các mối đe dọa AI tiềm ẩn vào tháng 7 năm 2023.

Những rủi ro tiềm ẩn liên quan đến trí tuệ nhân tạo thường xuyên được nhấn mạnh, cùng với nỗi lo ngại rằng AI có tiềm năng trở nên thông minh hơn bất kỳ con người nào. Mặc dù thừa nhận những rủi ro này, các công ty như OpenAI vẫn tích cực phát triển các công nghệ AI mới trong những năm gần đây, điều này đã làm dấy lên nhiều lo ngại hơn.

Vào tháng 5 năm 2023, tổ chức phi lợi nhuận Trung tâm An toàn AI đã công bố một bức thư ngỏ về rủi ro AI, kêu gọi cộng đồng giảm thiểu rủi ro tuyệt chủng khỏi AI như một ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân.

Click Digital

5/5 - (1 bình chọn)

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *