Microsoft chống ảo giác AI (hallucination) cho công cụ Azure AI

MICROSOFT TIẾT LỘ CÁC TÍNH NĂNG AN TOÀN AI MỚI CỦA AZURE ĐỂ BẢO VỆ CHỐNG LẠI ẢO GIÁC AI.

  • Các công cụ AI của Microsoft ưu tiên bảo mật và ngăn chặn thông tin sai lệch.
  • Azure AI giới thiệu khả năng phát hiện mối đe dọa và lỗ hổng theo thời gian thực.
  • Các tùy chọn kiểm soát nâng cao giúp người dùng Azure chống lại sự lạm dụng.

Microsoft đã phát triển một bộ công cụ tiên tiến gồm các tính năng để tăng cường tính bảo mật của nền tảng Azure AI. Sarah Bind, giám đốc sản phẩm chính của Sáng kiến ​​AI Sentient của Microsoft, sẽ ra mắt một loạt công cụ được thiết kế chu đáo để giải quyết các rủi ro khi sử dụng các ứng dụng hỗ trợ AI. 

Ở giai đoạn xem trước, các biện pháp phòng ngừa bảo mật mới sẽ bảo vệ Azure AI khỏi các mối đe dọa, cung cấp các câu trả lời được bảo vệ và bảo vệ khỏi việc quảng bá và ẩn dấu nhắc độc hại mà không cần đến các đội đỏ cụ thể.

Các công cụ an toàn AI tiên tiến của Microsoft Azure

Giải quyết những mối lo ngại này là điều tối quan trọng trong việc tích hợp hiệu quả công nghệ AI vào khu vực công, vì điều quan trọng là phải giảm thiểu những rủi ro và lo ngại không lường trước được có thể cản trở việc triển khai và thành công lâu dài của nó.

Phần nổi của tảng băng trôi là các công cụ như Lá chắn nhắc nhở, Phát hiện căn cứ và đánh giá lỗ hổng phức tạp để giúp sàng lọc các lỗ hổng mô hình cũng đã được tiết lộ. 

Lá chắn nhắc nhở cung cấp một cổng ngăn chặn việc tiêm nhắc nhở độc hại và bảo vệ người dùng khỏi nguy cơ sử dụng AI chống lại thế giới kỹ thuật số thông qua các mô hình AI bằng cách cấm sử dụng ngôn ngữ bị cấm/lời nhắc bí mật vì chúng có thể dẫn đến việc khai thác thông tin đầu vào của người dùng và- dữ liệu của đảng 

Điều này trở nên đặc biệt quan trọng, đặc biệt khi tránh việc sản xuất tài liệu giả mạo hoặc không chính xác về các sự kiện lịch sử, vốn là một thách thức đối với các mô hình do AI điều khiển.

Bảo mật AI và giảm thiểu ảo giác hallucination trong hệ sinh thái Azure

Giảm nhẹ ảo giác dựa trên văn bản, một phần thiết yếu khác trong bộ công cụ an toàn của Microsoft, nhắm vào một loạt ảo giác và vô hiệu hóa. Hoàn thành điều này sẽ tạo ra một môi trường mà không phải bất kỳ ý tưởng nào cũng có thể được chấp nhận; chỉ những thứ được hỗ trợ bởi bằng chứng và có thể xác minh được mới là đầu vào phù hợp nhất cho hệ thống AI. 

Hơn nữa, việc đánh giá an toàn sẽ cho phép giám sát chuyên sâu các lỗ hổng của mô hình để có thể xác định ngay những điểm yếu này và sau đó có thể điều chỉnh các biện pháp bảo mật khi cần thiết. Xem xét điều này, Microsoft sẵn sàng đáp ứng nhu cầu của từng khách hàng và các biện pháp bảo mật AI đầy đủ. 

Khách hàng Azure có thể tùy chỉnh cài đặt của mình bằng cách bao gồm hoặc loại trừ nội dung thiên vị giới tính, lời nói căm thù và nội dung hạ nhục khác phù hợp với nhu cầu cụ thể của họ. 

Tương tự, việc nâng cấp trong tương lai như vậy cũng sẽ hữu ích cho quản trị viên trong việc xác định xem người dùng là người thử nghiệm thực sự hay người dùng độc hại bằng cách cung cấp tính năng báo cáo.

Cách tiếp cận tiên phong của Microsoft để phát triển AI an toàn và có đạo đức

Tầm quan trọng của các biện pháp an toàn này không chỉ bao gồm những lợi ích trước mắt về an ninh mà còn bao gồm thực tế là ngành công nghệ thông tin áp dụng cách tiếp cận toàn diện để phát triển AI, có trách nhiệm với xã hội. Việc tích hợp các công cụ này, chẳng hạn như Llama, vào các phiên bản hàng đầu như GPT-4 và Llama 2 có nghĩa là một danh sách dài các ứng dụng AI trên Azure AI sẽ phụ thuộc vào các biện pháp kiểm soát lỗi và gian lận cao hơn. 

Tuy nhiên, việc các mô hình nguồn mở không quá phổ biến có thể yêu cầu người dùng tích hợp thủ công các công cụ an toàn vào hệ thống chính là một điều cần lưu ý. Những tính năng thực thi này được công nhận là một phần trong chiến lược toàn diện của Microsoft nhằm tạo ra một môi trường AI bảo mật và có đạo đức. Các khách hàng Azure AI (ví dụ: KPMG, AT&T, Reddit) tạo thành các thế lực lớn nhằm thực hiện các cải tiến trên nhiều lĩnh vực khác nhau. 

Vì vậy, tác động của chúng dự kiến ​​sẽ rất rộng. Hơn nữa, Microsoft, thông qua quan hệ đối tác với OpenAI và ra mắt Dịch vụ Azure OpenAI, là bằng chứng cho thấy họ là thế lực chính trong lĩnh vực AI, cung cấp các công cụ mà các nhà phát triển và tổ chức cần để đạt được năng lực trong các ứng dụng AI.

Tính năng tự động an toàn cuối cùng của Microsoft được coi là phản ứng trước những rủi ro lớn do ngôn ngữ của công nghệ trí tuệ nhân tạo gây ra. Bằng cách đi sâu vào các cách mà AI có thể được bảo vệ khỏi các mối đe dọa bảo mật trong đó và làm cho kết quả đầu ra trực tiếp của các công cụ AI trở nên chính xác, Microsoft, theo cách đó, đang xác định một quy tắc mới về bảo mật AI. Chúng cải thiện tính an toàn, tính toàn vẹn và độ tin cậy của các giải pháp AI, đồng thời giúp phát triển diễn ngôn sử dụng AI chịu trách nhiệm.

Trí tuệ nhân tạo càng phát triển thì chắc chắn nhu cầu giám sát an toàn càng tăng lên. Với những công nghệ bảo mật mới này, Microsoft nâng mục tiêu cao hơn đáng kể hướng tới mô hình AI thực sự an toàn và có đạo đức. Với những biện pháp bảo vệ này, khách hàng sử dụng AI của Azure có thể tự tin rằng họ có thể triển khai máy tự động vào hoạt động của mình với sự hiểu biết đầy đủ về tất cả các rủi ro có thể xảy ra mà trí tuệ nhân tạo gây ra.

Rate this post

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *