Đón xem YOLO Vision 2025!
25 tháng 9, 2025
10:00 — 18:00 BST
Sự kiện kết hợp
Yolo Vision 2024
Bảng chú giải thuật ngữ

Gợi ý theo chuỗi suy luận (Chain-of-Thought Prompting)

Tăng cường khả năng suy luận AI bằng cách sử dụng chain-of-thought prompting! Nâng cao độ chính xác, tính minh bạch và khả năng lưu giữ ngữ cảnh cho các tác vụ phức tạp, đa bước.

Chain-of-Thought (CoT) prompting là một kỹ thuật thiết kế prompt nâng cao được thiết kế để cải thiện khả năng suy luận của Mô hình ngôn ngữ lớn (LLM). Thay vì yêu cầu mô hình đưa ra câu trả lời trực tiếp, CoT prompting khuyến khích mô hình tạo ra một loạt các bước trung gian, mạch lạc dẫn đến kết luận cuối cùng. Phương pháp này mô phỏng cách giải quyết vấn đề của con người bằng cách chia các câu hỏi phức tạp thành các phần nhỏ hơn, dễ quản lý hơn, cải thiện đáng kể hiệu suất đối với các tác vụ đòi hỏi số học, lẽ thường và suy luận tượng trưng. Ý tưởng cốt lõi được giới thiệu trong một bài nghiên cứu của Google AI, chứng minh rằng phương pháp này giúp các mô hình đưa ra câu trả lời chính xác và đáng tin cậy hơn.

Kỹ thuật này không chỉ nâng cao độ chính xác của đầu ra của mô hình mà còn cung cấp một cái nhìn sâu sắc về "quá trình suy nghĩ" của nó, làm cho kết quả dễ diễn giải và đáng tin cậy hơn. Đây là một bước quan trọng hướng tới việc phát triển AI có thể giải thích (Explainable AI - XAI). Bằng cách theo dõi chuỗi suy nghĩ của mô hình, các nhà phát triển có thể hiểu rõ hơn về cách đạt được kết luận và xác định các lỗi tiềm ẩn trong logic của nó, điều này rất quan trọng để gỡ lỗi và tinh chỉnh hệ thống AI.

Cách hoạt động của Chain-of-Thought Prompting

Có hai phương pháp chính để triển khai CoT prompting, mỗi phương pháp phù hợp với các tình huống khác nhau:

  • Zero-Shot CoT: Đây là phương pháp đơn giản nhất, trong đó một cụm từ đơn giản như "Hãy suy nghĩ từng bước một" được thêm vào cuối câu hỏi. Hướng dẫn này thúc đẩy mô hình diễn đạt quá trình suy luận của nó mà không cần bất kỳ ví dụ trước nào. Đây là một ứng dụng mạnh mẽ của học zero-shot, cho phép mô hình thực hiện suy luận phức tạp trên các tác vụ mà nó chưa từng thấy trước đây.
  • Few-Shot CoT: Phương pháp này bao gồm việc cung cấp cho mô hình một vài ví dụ trong chính lời nhắc. Mỗi ví dụ bao gồm một câu hỏi, một quy trình suy luận từng bước chi tiết (chuỗi suy nghĩ) và câu trả lời cuối cùng. Bằng cách xem những ví dụ này, mô hình học cách tuân theo mô hình suy luận mong muốn khi nó gặp một câu hỏi mới, tương tự. Cách tiếp cận này, tận dụng học few-shot, thường hiệu quả hơn zero-shot CoT đối với các vấn đề rất phức tạp hoặc dành riêng cho lĩnh vực.

Các Ứng dụng Thực tế

CoT prompting có các ứng dụng thực tế trong nhiều ngành công nghiệp khác nhau, nơi đòi hỏi khả năng giải quyết vấn đề phức tạp.

  1. Giải quyết vấn đề toán học và khoa học: Một trường hợp sử dụng cổ điển là giải các bài toán đố nhiều bước. Một LLM có thể được nhắc để chia nhỏ vấn đề, xác định các biến, xây dựng các bước cần thiết, thực hiện các phép tính và đưa ra câu trả lời cuối cùng, giảm đáng kể sai sót so với việc nhắc trực tiếp câu trả lời. Điều này được khám phá sâu hơn bởi các tổ chức như DeepMind.
  2. Hỗ Trợ và Chẩn Đoán Khách Hàng Phức Tạp: Một chatbot hỗ trợ kỹ thuật dựa trên AI có thể sử dụng CoT để xử lý các vấn đề phức tạp của người dùng. Thay vì một phản hồi chung chung, bot có thể suy luận về vấn đề: "Đầu tiên, tôi sẽ xác nhận thiết bị và phiên bản phần mềm của người dùng. Tiếp theo, tôi sẽ kiểm tra các vấn đề đã biết liên quan đến phiên bản này. Sau đó, tôi sẽ yêu cầu các thông báo lỗi cụ thể. Cuối cùng, tôi sẽ cung cấp một giải pháp từng bước dựa trên thông tin này." Cách tiếp cận có cấu trúc này dẫn đến sự hỗ trợ hữu ích và chính xác hơn.

So sánh với các khái niệm liên quan

CoT prompting có liên quan đến, nhưng khác biệt với các kỹ thuật khác trong xử lý ngôn ngữ tự nhiên (NLP)học máy (ML).

  • Chuỗi Prompt (Prompt Chaining): Chuỗi prompt chia một tác vụ phức tạp thành một chuỗi các prompt đơn giản hơn, liên kết với nhau, trong đó đầu ra của prompt này trở thành đầu vào cho prompt tiếp theo. Điều này thường đòi hỏi sự điều phối bên ngoài (ví dụ: sử dụng các framework như LangChain). Ngược lại, CoT nhằm mục đích gợi ra toàn bộ quá trình suy luận trong một tương tác prompt-response duy nhất.
  • Retrieval-Augmented Generation (RAG): RAG là một kỹ thuật trong đó mô hình trước tiên truy xuất thông tin liên quan từ cơ sở tri thức bên ngoài trước khi tạo ra phản hồi. RAG có thể là một component (thành phần) của quy trình chain-of-thought (ví dụ: một bước có thể là "tìm kiếm cơ sở dữ liệu cho X"), nhưng CoT mô tả cấu trúc tổng thể của chính quá trình suy luận. Tìm hiểu thêm về cách hệ thống RAG hoạt động.
  • Làm phong phú Prompt (Prompt Enrichment): Điều này bao gồm việc thêm ngữ cảnh hoặc chi tiết vào prompt ban đầu của người dùng trước khi gửi nó đến AI. Nó tăng cường một prompt duy nhất nhưng không tạo ra quy trình suy luận từng bước, tuần tự để xác định CoT.

CoT prompting thể hiện một bước tiến quan trọng hướng tới việc xây dựng các hệ thống Trí tuệ nhân tạo (AI) có khả năng và dễ diễn giải hơn. Hiểu và sử dụng các kỹ thuật như vậy có thể có lợi khi phát triển các mô hình AI phức tạp. Các nền tảng như Ultralytics HUB có thể giúp quản lý huấn luyệntriển khai các mô hình khác nhau. Các kỹ thuật như Self-Consistency có thể tăng cường thêm CoT bằng cách lấy mẫu nhiều đường dẫn suy luận và chọn câu trả lời nhất quán nhất. Khi các mô hình trở nên phức tạp hơn, từ LLM đến các mô hình thị giác máy tính như Ultralytics YOLO11, các nguyên tắc suy luận có cấu trúc sẽ ngày càng trở nên quan trọng.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay
Đã sao chép liên kết vào clipboard