Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Chuỗi xác minh (CoVe)

Khám phá cách Chuỗi Xác minh (CoVe) giảm thiểu ảo giác LLM. Tìm hiểu cách cải thiện độ chính xác thực tế bằng kỹ thuật kỹ thuật nhắc nhở nhanh chóng này. Ultralytics YOLO26.

Chuỗi Xác minh (Council of Verification - CoVe) là một kỹ thuật kỹ thuật nhắc nhở tiên tiến được thiết kế để giảm thiểu sự không chính xác và lỗi thực tế trong đầu ra của các Mô hình Ngôn ngữ Lớn (Large Language Models - LLMs) . Khi các hệ thống trí tuệ nhân tạo trở nên phức tạp hơn, xu hướng tự tin tạo ra thông tin sai lệch của chúng - một hiện tượng được gọi là ảo giác LLM - vẫn là một thách thức đáng kể. CoVe giải quyết vấn đề này bằng cách buộc mô hình phải kiểm tra thực tế một cách có hệ thống các phản hồi ban đầu của chính nó trước khi đưa ra câu trả lời cuối cùng cho người dùng. Cơ chế tự sửa lỗi này cải thiện đáng kể độ tin cậy của các ứng dụng trí tuệ nhân tạo tạo sinh trong nhiều ngành công nghiệp khác nhau.

Quy trình xác minh hoạt động như thế nào?

Phương pháp CoVe chia quá trình tạo ra dữ liệu thành bốn bước riêng biệt, tuần tự. Cách tiếp cận có cấu trúc này phản ánh quy trình kiểm chứng thông tin của con người và đang được các tổ chức AI hàng đầu tích cực nghiên cứu để cải thiện tính an toàn và sự phù hợp của AI .

  • Soạn thảo phản hồi ban đầu : Mô hình tạo ra câu trả lời cơ bản cho truy vấn của người dùng. Bản soạn thảo này có thể chứa những tuyên bố chưa được xác minh hoặc không có căn cứ.
  • Câu hỏi kiểm chứng kế hoạch : Mô hình phân tích bản nháp của chính nó và tạo ra một danh sách các câu hỏi cụ thể, có mục tiêu được thiết kế để xác minh các tuyên bố thực tế được đưa ra trong văn bản ban đầu.
  • Thực hiện xác minh độc lập : Mô hình trả lời các câu hỏi xác minh một cách độc lập, không phụ thuộc vào ngữ cảnh của bản thảo gốc. Điều này ngăn chặn mô hình chỉ đơn thuần xác nhận những thành kiến ​​hoặc sai lầm trước đó của chính nó.
  • Tạo ra kết quả cuối cùng đã được xác minh : Sử dụng các thông tin đã được xác minh, mô hình sẽ sửa đổi bản nháp ban đầu, loại bỏ những điểm không chính xác và đưa ra câu trả lời chính xác và hoàn chỉnh hơn.

Phân biệt CoVe với các kỹ thuật liên quan

Mặc dù CoVe thường được so sánh với phương pháp gợi ý chuỗi suy luận (Chain-of-Thought Prompting) , nhưng hai phương pháp này phục vụ các mục đích khác nhau. Chuỗi suy luận khuyến khích mô hình "thể hiện quá trình hoạt động" bằng cách phân tích quá trình suy luận logic phức tạp thành các bước nhỏ để giải quyết vấn đề. Ngược lại, chuỗi xác minh (Chain of Verification) tập trung cụ thể vào tính chính xác về mặt thực tế bằng cách kiểm tra và sửa đổi các tuyên bố sau khi bản nháp được tạo ra. Ngoài ra, CoVe có thể được kết hợp với các quy trình tạo tăng cường truy xuất (Retrieval-Augmented Generation - RAG) , trong đó bước xác minh lấy dữ liệu thực tế từ cơ sở dữ liệu vectơ bên ngoài thay vì chỉ dựa vào trọng số nội bộ của mô hình.

Các Ứng dụng Thực tế

CoVe mang lại lợi ích rất lớn trong các lĩnh vực mà độ chính xác về mặt dữ liệu là vô cùng quan trọng. Bằng cách tích hợp vòng lặp tự kiểm tra này, các nhà phát triển có thể tin tưởng giao phó cho các hệ thống trí tuệ nhân tạo những nhiệm vụ có tính rủi ro cao hơn.

  • Trợ lý Y tế và Chăm sóc Sức khỏe : Khi AI tóm tắt các triệu chứng của bệnh nhân hoặc tài liệu y khoa, CoVe đảm bảo hệ thống xác minh tương tác thuốc, liều lượng và tiêu chí chẩn đoán dựa trên kiến ​​thức y khoa đã được thiết lập trước khi đưa ra khuyến nghị.
  • Báo cáo công nghiệp tự động : Trong các nhà máy thông minh, LLM có thể tạo ra báo cáo tóm tắt dựa trên nhật ký kiểm tra trực quan. Bằng cách kết hợp CoVe với các mô hình thị giác máy tính , mô hình ngôn ngữ có thể truy vấn hệ thống thị giác để xác minh xem một lỗi cụ thể có thực sự được phát hiện trên dây chuyền lắp ráp hay không trước khi hoàn thiện báo cáo bảo trì hàng ngày.

Xác minh tiếp đất bằng mô hình thị giác

Để nâng cao bước "Thực thi" của CoVe, các nhà phát triển có thể truy vấn các mô hình học máy đáng tin cậy để lấy dữ liệu thực tế. Ví dụ, sử dụng Ultralytics YOLO26 để phát hiện đối tượng , một mô hình LLM có thể xác minh các tuyên bố vật lý về một hình ảnh. Các nhóm có thể quản lý hiệu quả các tập dữ liệu này và triển khai các mô hình thị giác này bằng cách sử dụng Nền tảng Ultralytics trực quan.

Sau đây là Python ví dụ minh họa cách sử dụng ultralytics Gói này dùng để trích xuất danh sách các đối tượng đã được xác minh, có thể đóng vai trò là nguồn thông tin xác thực cho LLM thực hiện bước Chuỗi Xác minh.

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

Bằng cách tích hợp các kết quả đầu ra mang tính xác định từ các khung xử lý hình ảnh hiệu năng cao như PyTorch vào quy trình CoVe, các nhà phát triển có thể giảm đáng kể lỗi tạo sinh và xây dựng các ứng dụng AI đa phương thức mạnh mẽ, đáng tin cậy.

Tăng sức mạnh với Ultralytics YOLO

Nhận AI thị giác tiên tiến cho các dự án của bạn. Tìm giấy phép phù hợp với mục tiêu của bạn ngay hôm nay.

Tìm hiểu các tùy chọn cấp phép