Khám phá cách Chuỗi Xác minh (CoVe) giảm thiểu ảo giác LLM. Tìm hiểu cách cải thiện độ chính xác thực tế bằng kỹ thuật kỹ thuật nhắc nhở nhanh chóng này. Ultralytics YOLO26.
Chuỗi Xác minh (Council of Verification - CoVe) là một kỹ thuật kỹ thuật nhắc nhở tiên tiến được thiết kế để giảm thiểu sự không chính xác và lỗi thực tế trong đầu ra của các Mô hình Ngôn ngữ Lớn (Large Language Models - LLMs) . Khi các hệ thống trí tuệ nhân tạo trở nên phức tạp hơn, xu hướng tự tin tạo ra thông tin sai lệch của chúng - một hiện tượng được gọi là ảo giác LLM - vẫn là một thách thức đáng kể. CoVe giải quyết vấn đề này bằng cách buộc mô hình phải kiểm tra thực tế một cách có hệ thống các phản hồi ban đầu của chính nó trước khi đưa ra câu trả lời cuối cùng cho người dùng. Cơ chế tự sửa lỗi này cải thiện đáng kể độ tin cậy của các ứng dụng trí tuệ nhân tạo tạo sinh trong nhiều ngành công nghiệp khác nhau.
Phương pháp CoVe chia quá trình tạo ra dữ liệu thành bốn bước riêng biệt, tuần tự. Cách tiếp cận có cấu trúc này phản ánh quy trình kiểm chứng thông tin của con người và đang được các tổ chức AI hàng đầu tích cực nghiên cứu để cải thiện tính an toàn và sự phù hợp của AI .
Mặc dù CoVe thường được so sánh với phương pháp gợi ý chuỗi suy luận (Chain-of-Thought Prompting) , nhưng hai phương pháp này phục vụ các mục đích khác nhau. Chuỗi suy luận khuyến khích mô hình "thể hiện quá trình hoạt động" bằng cách phân tích quá trình suy luận logic phức tạp thành các bước nhỏ để giải quyết vấn đề. Ngược lại, chuỗi xác minh (Chain of Verification) tập trung cụ thể vào tính chính xác về mặt thực tế bằng cách kiểm tra và sửa đổi các tuyên bố sau khi bản nháp được tạo ra. Ngoài ra, CoVe có thể được kết hợp với các quy trình tạo tăng cường truy xuất (Retrieval-Augmented Generation - RAG) , trong đó bước xác minh lấy dữ liệu thực tế từ cơ sở dữ liệu vectơ bên ngoài thay vì chỉ dựa vào trọng số nội bộ của mô hình.
CoVe mang lại lợi ích rất lớn trong các lĩnh vực mà độ chính xác về mặt dữ liệu là vô cùng quan trọng. Bằng cách tích hợp vòng lặp tự kiểm tra này, các nhà phát triển có thể tin tưởng giao phó cho các hệ thống trí tuệ nhân tạo những nhiệm vụ có tính rủi ro cao hơn.
Để nâng cao bước "Thực thi" của CoVe, các nhà phát triển có thể truy vấn các mô hình học máy đáng tin cậy để lấy dữ liệu thực tế. Ví dụ, sử dụng Ultralytics YOLO26 để phát hiện đối tượng , một mô hình LLM có thể xác minh các tuyên bố vật lý về một hình ảnh. Các nhóm có thể quản lý hiệu quả các tập dữ liệu này và triển khai các mô hình thị giác này bằng cách sử dụng Nền tảng Ultralytics trực quan.
Sau đây là Python ví dụ minh họa cách sử dụng ultralytics Gói này dùng để trích xuất danh sách các đối tượng đã được xác minh, có thể đóng vai trò là nguồn thông tin xác thực cho LLM thực hiện bước Chuỗi Xác minh.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Bằng cách tích hợp các kết quả đầu ra mang tính xác định từ các khung xử lý hình ảnh hiệu năng cao như PyTorch vào quy trình CoVe, các nhà phát triển có thể giảm đáng kể lỗi tạo sinh và xây dựng các ứng dụng AI đa phương thức mạnh mẽ, đáng tin cậy.