Microsoft tăng cường bảo mật chatbot AI

Ngày 28/3, Microsoft thông báo về việc bổ sung nhiều tính năng bảo mật cho dịch vụ đám mây Azure AI Studio, khuyến khích giảm thiểu khả năng người dùng tạo ra các mô hình chatbot AI cho hoạt động bất thường hoặc không phù hợp.

Azure AI Studio là môi trường phát triển trực tiếp dựa trên web cho phép người dùng đào tạo và phát triển các mô hình trí tuệ nhân tạo (AI) một cách nhanh chóng và dễ dàng.

Các tính năng chính được bổ sung bao gồm Lá chắn nhắc nhở, giúp ngăn chặn “jailbreak” – việc người dùng cố gắng đưa ra những yêu cầu đặc biệt để AI trả về kết quả xấu. Ví dụ: kẻ gian có thể sử dụng “jailbreak” để đánh cắp dữ liệu hoặc sử dụng hệ thống điều khiển bản quyền.

Azure AI Studio sẽ sớm hiển thị cảnh báo khi phát hiện ra mẫu AI có khả năng đưa ra sai lệch thông tin hoặc gây nguy hiểm.

Là nhà tư vấn và đối tác chiến lược lớn nhất của OpenAI, Microsoft đang nỗ lực phát triển các công nghệ AI an toàn và có trách nhiệm. Những nỗ lực này là một phần trong chiến lược lớn hơn nhằm đảm bảo an toàn trong lĩnh vực AI nói chung.

Tuy nhiên, Sarah Bird, Giám đốc sản phẩm phụ trách AI của Microsoft cho biết, nguy cơ các mẫu ngôn ngữ lớn (Mô hình ngôn ngữ lớn) nói riêng và các sản phẩm AI nói chung vẫn có khả năng được thao túng sẽ tăng lên cùng với sự phổ biến của công nghệ này. Để đảm bảo an toàn, cần có một chiến lược toàn diện về an ninh cho AI, chứ không chỉ dựa vào các mẫu chính này.

Các giải pháp bảo vệ tăng cường bảo mật cho Azure AI Studio cho thấy Microsoft đang là chủ động ứng dụng cho các mối đe dọa an ninh liên quan đến AI. Đây là một động thái cần thiết để tránh sử dụng AI và duy trì tính toàn vẹn của AI tương tác trong tương lai.

Rate this post

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *