OpenAI gây lo ngại khi thành lập Ủy ban An toàn AI nội bộ

OpenAI, công ty đứng sau ChatGPT, vừa thành lập Ủy ban An toàn và Bảo mật AI gồm các lãnh đạo cấp cao để giám sát các quyết định quan trọng liên quan đến an ninh và bảo mật. Tuy nhiên, quyết định này đã gây ra lo ngại về đạo đức AI do thiếu sự tham gia của các chuyên gia độc lập.

Ủy ban sẽ do Giám đốc điều hành Sam Altman và các thành viên hội đồng quản trị như Bret Taylor, Adam D’Angelo, Nicole Seligman, cùng các chuyên gia Jakub Pachocki, Aleksander Madry, Lilian Weng, Matt Knight và John Schulman phụ trách. Ủy ban sẽ đánh giá các quy trình và biện pháp an toàn của OpenAI trong vòng 90 ngày tới.

Mặc dù OpenAI khẳng định Ủy ban được thành lập nhằm tăng cường an ninh AI, nhưng việc thiếu vắng các chuyên gia độc lập bên ngoài đã khiến nhiều người lo ngại. Đặc biệt, một số chuyên gia đạo đức AI chỉ trích OpenAI vì ưu tiên phát triển sản phẩm hơn là an toàn, dẫn đến nhiều nhân viên cấp cao về an ninh AI đã rời bỏ công ty trong thời gian gần đây.


Daniel Kokotajlo, cựu thành viên nhóm quản trị của OpenAI, Ilya Sutskever, đồng sáng lập và cựu giám đốc khoa học của OpenAI, đã rời công ty vào tháng 4 và tháng 5 sau những bất đồng với Altman về ưu tiên phát triển sản phẩm hơn là nghiên cứu an toàn AI. 

Jan Leike, cựu nghiên cứu viên của DeepMind và người tham gia phát triển ChatGPT và tiền thân của nó, InstructGPT tại OpenAI, cũng đã từ chức vì cho rằng OpenAI không đi đúng hướng trong việc giải quyết các vấn đề về an ninh và an toàn AI. Gretchen Krueger, một nhà nghiên cứu chính sách AI, cũng rời đi và kêu gọi công ty cải thiện trách nhiệm giải trình và minh bạch.

Bên cạnh kêu gọi quy định AI, OpenAI cũng đã nỗ lực định hình các quy định này bằng cách thuê chuyên gia và chi hàng trăm ngàn USD cho các hoạt động vận động hành lang tại Mỹ. Gần đây, Bộ An ninh Nội địa Mỹ thông báo Altman sẽ là thành viên của Hội đồng An toàn và Bảo mật AI mới thành lập, cơ quan cung cấp các khuyến nghị về phát triển và triển khai AI an toàn, bảo mật trên khắp các cơ sở hạ tầng quan trọng của Mỹ.

OpenAI hiện đang cố gắng xoa dịu những lo ngại bằng cách tuyên bố sẽ giữ lại một số chuyên gia độc lập về an ninh và kỹ thuật để hỗ trợ ủy ban. Tuy nhiên, công ty chưa công bố danh sách cụ thể, cũng như quyền hạn và ảnh hưởng của họ đối với ủy ban.

Việc OpenAI tự kiểm tra an toàn AI đã dấy lên nhiều tranh cãi về đạo đức và trách nhiệm của các công ty phát triển AI. Các chuyên gia kêu gọi sự giám sát độc lập và minh bạch hơn trong phát triển AI để đảm bảo an toàn và đạo đức cho con người.

[++++]

Rate this post

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *