Contextual AI giới thiệu phương pháp RAG 2.0 tối ưu từ đầu đến cuối quá trình (Retrieval Augmented Generation 2.0)

Retrieval Augmented Generation (RAG) (Tạo tăng cường truy xuất) là một kỹ thuật nhằm nâng cao độ chính xác và độ tin cậy của các mô hình AI tổng quát với các dữ kiện được lấy từ các nguồn bên ngoài.

Một kỹ thuật bổ sung kiến ​​thức vào mô hình ngôn ngữ có thể trở nên cũ kỹ được gọi là thế hệ tăng cường truy xuất, hay RAG. Thật không may, bên ngoài các cuộc trình diễn, mô hình hiện tại của “frozen RAG”, trong đó chỉ một phần của quy trình được đào tạo và bản thân mô hình không được cập nhật, hoạt động rất kém. Bài viết này mô tả thế hệ tiếp theo của RAG, là RAG 2.0, trong đó tất cả các thành phần đều được tinh chỉnh cho phù hợp với công việc hiện tại. Trong hệ thống này, một mẫu mở như Mistral 7B có thể hoạt động tốt hơn GPT-4 RAG thông thường.

RAG 2.0, phương pháp tiếp cận mới do Contextual AI giới thiệu, nhằm phát triển AI mạnh mẽ và đáng tin cậy nhằm mang lại hiệu suất cấp doanh nghiệp. Không giống như thế hệ RAG trước đây kết hợp các mô hình cố định, cơ sở dữ liệu vectơ và các phần nhúng chất lượng kém lại với nhau, hệ thống này được tối ưu hóa từ đầu đến cuối. RAG 2.0 đã được sử dụng để tạo bộ Mô hình ngôn ngữ ngữ cảnh (CLM) đầu tiên, đạt được hiệu suất tiên tiến trên nhiều tiêu chuẩn ngành khác nhau. Theo nghiên cứu, CLM hoạt động tốt hơn các đường cơ sở RAG mạnh mẽ dựa trên GPT-4 và các mô hình nguồn mở tốt nhất với tỷ suất lợi nhuận lớn.

Mô hình ngôn ngữ theo ngữ cảnh, được đào tạo bằng RAG 2.0, hoạt động tốt hơn đáng kể so với các hệ thống RAG hiện có trên tất cả các điểm chuẩn của chúng tôi. Câu hỏi tự nhiên (NQ), HotpotQA (HPQA) và TriviaQA sử dụng số liệu đối sánh chính xác. Vì HaluEvalQA và TruthfulQA yêu cầu nhật ký nên không thể đánh giá GPT-4 trực tiếp trên các tác vụ đó. Vanilla RAG không bị bắn; những gì Contextual gọi là RAG bao gồm các bản trình diễn vài lần bắn, phân đoạn cẩn thận và kỹ thuật nhanh chóng thủ công. Nỗ lực đáng kể đã được dành cho việc củng cố các đường cơ sở.

Trong bài đăng trên blog này, Contextual chia sẻ tiến trình của mình trong việc xây dựng các hệ thống AI tổng quát vượt xa các bản demo cho đến các hệ thống cấp sản xuất thực sự:

  • Bài viết giới thiệu sự khác biệt giữa RAG, sử dụng các mô hình cố định sẵn có và RAG 2.0, tối ưu hóa toàn diện mô hình ngôn ngữ và trình truy xuất dưới dạng một hệ thống duy nhất.
  • Bài viết chứng minh rằng RAG 2.0 đạt được hiệu suất tiên tiến trên nhiều tiêu chuẩn khác nhau, từ trả lời câu hỏi trong miền mở cho đến độ trung thực, vượt trội đáng kể so với các phương pháp RAG hiện có.
  • Bài viết nêu bật những lợi ích thậm chí còn lớn hơn đối với RAG 2.0 đối với khối lượng công việc của khách hàng trong thế giới thực và thảo luận về khả năng tồn tại của nó trong sản xuất.

Tìm hiểu bài viết đầy đủ tại đây: https://contextual.ai/introducing-rag2/

5/5 - (1 bình chọn)

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *