Nhân viên của OpenAI, Google,… ra bản kiến nghị về “Quyền cảnh báo rủi ro về AI”

Mười ba nhân viên cũ và hiện tại của OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) và các chuyên gia trong lĩnh vực trí tuệ nhân tạo đã đưa ra bản kiến ​​​​nghị mang tên “Quyền cảnh báo về AI”: Quyền được lên tiếng cảnh báo các rủi ro xuất phát từ công nghệ AI.

Bản kiến ​​nghị nhằm mục đích ủng hộ các biện pháp bảo vệ người tố cáo mạnh mẽ hơn nhằm nâng cao nhận thức của công chúng về những rủi ro của hệ thống trí tuệ nhân tạo tiên tiến.

Dưới đây là 4 đề xuất liên quan tới quyền được cảnh báo rủi ro về AI được nêu trong bản kiến nghị:

  1. Loại bỏ thái độ không chê bai về rủi ro: Các công ty không nên bịt miệng nhân viên bằng các thỏa thuận ngăn họ nêu lên mối lo ngại về rủi ro của AI hoặc trừng phạt họ vì làm như vậy.
  2. Thiết lập các kênh báo cáo ẩn danh: Nên tạo ra các kênh để cá nhân có thể nêu lên mối lo ngại về rủi ro AI một cách ẩn danh.
  3. Tạo môi trường thuận lợi cho những lời chỉ trích công khai: Khuyến khích sự minh bạch và tạo điều kiện cho các cuộc thảo luận công khai về những rủi ro của AI.
  4. Bảo vệ người tố giác: Bảo vệ những nhân viên tiết lộ thông tin để lộ những rủi ro nghiêm trọng về AI khỏi bị trả thù bởi công ty.

Cựu nhân viên OpenAI, William Saunders nhận xét rằng khi xử lý các công nghệ mới tiềm ẩn nguy hiểm, cần có cách chia sẻ thông tin về rủi ro với các chuyên gia độc lập, chính phủ và công chúng.

[++++]

Rate this post

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *