In-Context Learning (ICL) trong LLM: Học trong ngữ cảnh cho Mô hình ngôn ngữ lớn

Học trong ngữ cảnh, hay còn gọi là In-Context Learning (ICL), là một phương pháp đặc biệt của việc tạo lời nhắc (prompt), trong đó các ví dụ về nhiệm vụ được cung cấp cho mô hình như một phần của gợi ý của bạn. Với ICL, bạn có thể sử dụng các mô hình ngôn ngữ lớn (Large Language Model – LLM) sẵn có để giải quyết các nhiệm vụ mới mà không cần cần đến việc điều chỉnh cụ thể. ICL cũng có thể được kết hợp với việc điều chỉnh để tạo ra các LLM mạnh mẽ hơn.

1. In-Context Learning (ICL) trong LLM là gì?

In-context learning (ICL) trong LLM là việc học hỏi của các Mô hình ngôn ngữ lớn để hiểu rõ hơn về ngữ cảnh thông qua lời nhắc (prompt), trong đó các ví dụ được cung cấp thêm như một gợi ý.

Với ICL, bạn có thể sử dụng các mô hình ngôn ngữ lớn có sẵn (LLMs) để giải quyết các nhiệm vụ mới mà không cần cần đến việc điều chỉnh cụ thể. ICL có thể được kết hợp để tạo ra các LLM mạnh mẽ với các câu trả lời chính xác hơn.

2. Công dụng

Công dụng của In-context Learning (ICL) trong mô hình ngôn ngữ lớn (LLM) là giúp mở rộng khả năng ứng dụng của chúng trong giải quyết các nhiệm vụ mới mà chúng chưa từng được đào tạo trước đây. Thay vì phải thực hiện quá trình đào tạo lại hoặc điều chỉnh lại mô hình cho mỗi nhiệm vụ riêng biệt, ICL cho phép chúng học cách giải quyết các nhiệm vụ mới chỉ thông qua các ví dụ được cung cấp trong ngữ cảnh của câu hỏi.

3. Các phương pháp In-Context Learning trong LLM

Có nhiều phương pháp để thực hiện In-context Learning trong mô hình ngôn ngữ lớn. Click Digital xin phép nêu ra một số phương pháp ICL:

3.1. Chain of Thought (COT): Chuỗi suy nghĩ

Chain of Thought là một phương pháp ICL được sử dụng để cải thiện khả năng giải quyết các nhiệm vụ phức tạp, bao gồm cả các vấn đề liên quan đến lý thuyết số học, lý thuyết thông thường và lý thuyết biểu đồ. Thay vì chỉ sử dụng các cặp input-output như phương pháp thông thường, COT sử dụng các bước tư duy trung gian để giúp LLMs giải quyết các vấn đề mà chúng đã không thể giải quyết trước đây.

Bên trái trả lời sai. Bên phải sử dụng Chain-of-Thought để cho ra câu trả lời chính xác.

Hình trên cho thấy một ví dụ về một mô hình tạo ra một chuỗi suy nghĩ để giải một bài toán đố mà lẽ ra nó sẽ không chính xác. Ở phía bên trái, trong ICL, mô hình được cung cấp các ví dụ hoặc minh họa cho các câu hỏi lý luận toán học và câu trả lời trực tiếp. Nhưng mô hình không thể dự đoán câu trả lời chính xác.

Ở phía bên phải, trong COT, mô hình được trình bày với một bước trung gian để giúp đi đến câu trả lời cho ví dụ/minh họa đã cho. Chúng ta có thể thấy khi một mô hình được hỏi một câu hỏi lý luận tương tự, nó có thể dự đoán câu trả lời chính xác, từ đó chứng minh tính hiệu quả của phương pháp COT đối với các trường hợp sử dụng như vậy.

3.2. Self-consistency COT (COT tự thống nhất)

Self-consistency COT là một phương pháp sử dụng trong COT để tăng cường khả năng lý thuyết của các mô hình ngôn ngữ. Thay vì sử dụng phương pháp giải mã tham lam, Self-consistency COT sử dụng một phương pháp “tạo mẫu và tích lũy” để tạo ra nhiều con đường lý thuyết khác nhau mà có thể dẫn đến cùng một câu trả lời.

3.3. Tree of Thoughts

Tree of Thoughts (ToT) là một phương pháp ICL cho phép mô hình ngôn ngữ xem xét nhiều con đường lý thuyết khác nhau để giải quyết vấn đề. ToT cho phép các LLMs thực hiện các quyết định theo cách chôn sau và theo dõi khi cần phải lựa chọn toàn cầu hoặc lùi lại khi cần để ra quyết định toàn cầu. ToT đã chứng minh rằng nó có khả năng nâng cao khả năng giải quyết vấn đề của mô hình trên nhiều nhiệm vụ mới đòi hỏi kế hoạch hoặc tìm kiếm khó khăn.

4. Ví dụ

Lấy ví dụ ở ChatGPT (phiên bản miễn phí GPT-3), nếu bạn yêu cầu GPT-3 viết 1 bài viết về sự kiện chiến tranh Iran vào tháng 10 năm 2023, thì với lượng kiến thức bị hạn chế tới thời điểm tháng 9 năm 2021, GPT-3 sẽ không thể viết ra được. Nhưng nếu bạn cung cấp cho nó một số thông tin căn bản, có thể nó sẽ hoàn thành được bài viết. Đây là một ví dụ điển hình của In-Context Learning trong Mô hình ngôn ngữ lớn.

5. Điểm hạn chế

Mặc dù ICL là một phương pháp mạnh mẽ, nó cũng có nhược điểm. Một trong những điểm yếu của ICL là khả năng tiêu tốn nhiều tài nguyên tính toán, đặc biệt khi thực hiện các phương pháp phức tạp như Tree of Thoughts (ToT). Điều này có thể là một rào cản trong việc triển khai ICL trên quy mô lớn.

Kết: In-Context Learning (ICL) là một phương pháp quan trọng để mở rộng khả năng ứng dụng của mô hình ngôn ngữ lớn (LLMs) trong việc giải quyết các nhiệm vụ mới. ICL cho phép mô hình học từ các ví dụ và tư duy trung gian để giải quyết các vấn đề phức tạp trong ngữ cảnh thực tế. Các phương pháp ICL như Chain of Thought (COT) và Tree of Thoughts (ToT) đã chứng minh khả năng nâng cao hiệu suất của LLMs trên nhiều loại nhiệm vụ khác nhau. Tuy nhiên, cần lưu ý rằng việc triển khai ICL có thể đòi hỏi nhiều tài nguyên tính toán.

Vietnam Pham – Click Digital

Leave a Reply

Your email address will not be published. Required fields are marked *