Khám phá nguyên nhân gây ra ảo giác trong các Mô hình Ngôn ngữ Lớn (LLM) và tìm hiểu các chiến lược hiệu quả để giảm thiểu sự không chính xác trong nội dung do AI tạo ra.
Trong bối cảnh của Mô hình Ngôn ngữ Lớn (LLM) , ảo giác xảy ra khi một mô hình tạo ra nội dung chắc chắn và trôi chảy về mặt cú pháp nhưng lại sai lệch về mặt thực tế, vô nghĩa hoặc không trung thành với tài liệu nguồn. Không giống như các lỗi truy xuất cơ sở dữ liệu tiêu chuẩn, ảo giác trong AI tạo ra thường nghe có vẻ hợp lý, khiến người dùng khó nhận ra. detect không có xác minh độc lập. Hiện tượng này xuất phát từ thiết kế cơ bản của các mô hình này, vốn ưu tiên việc tạo văn bản dựa trên xác suất thống kê hơn là xác thực sự thật. Việc hiểu rõ ảo giác là rất quan trọng để triển khai các hệ thống AI an toàn, đặc biệt là trong các ngành công nghiệp có rủi ro cao như chăm sóc sức khỏe, tài chính và dịch vụ pháp lý.
Nguyên nhân chính gây ra ảo giác nằm ở kiến trúc Transformer và các mục tiêu đào tạo được sử dụng để xây dựng các mô hình nền tảng. Các hệ thống này được đào tạo để dự đoán mã thông báo tiếp theo trong một chuỗi dựa trên các mẫu học được từ một lượng lớn dữ liệu đào tạo . Chúng không sở hữu khái niệm cố hữu về "sự thật" hay "hư cấu"; thay vào đó, chúng mô hình hóa khả năng các từ xuất hiện cùng nhau.
Có một số yếu tố góp phần vào hành vi này:
Ảo giác có thể biểu hiện dưới nhiều hình thức khác nhau, từ những sai sót nhỏ đến những bịa đặt hoàn toàn:
ultralytics.detect_everything()) dựa trên các quy ước đặt tên chuẩn mà nó thấy trong dữ liệu đào tạo, mặc dù chức năng cụ thể đó chưa bao giờ được triển khai.
Giảm ảo giác là trọng tâm chính của nghiên cứu An toàn AI . Một số kỹ thuật hiện đang được sử dụng để đưa các mô hình vào thực tế:
Một cách hiệu quả để giảm thiểu ảo giác trong quy trình làm việc đa phương thức là sử dụng mô hình phát hiện vật thể có độ chính xác cao để xác minh nội dung vật lý của hình ảnh trước khi LLM mô tả nó. Bằng cách đưa danh sách các vật thể đã được xác minh vào ngữ cảnh của LLM, bạn ngăn chặn việc LLM tự tạo ra các yếu tố không có thật.
Ví dụ sau đây minh họa cách sử dụng Ultralytics YOLO11 để tạo danh sách các đối tượng cơ bản, sau đó có thể dùng làm ràng buộc thực tế cho mô hình tạo sinh.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Điều quan trọng là phải phân biệt ảo giác với các loại lỗi AI khác:
Để tìm hiểu thêm về việc đánh giá các mô hình tạo sinh, việc khám phá Khung Quản lý Rủi ro AI của NIST cung cấp cái nhìn toàn diện về các tiêu chuẩn về độ tin cậy và an toàn. Ngoài ra, các nhà nghiên cứu tiếp tục phát triển các thuật toán kiểm tra thực tế để tự động detect và đánh dấu nội dung gây ảo giác theo thời gian thực.