Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Ảo giác (trong LLM)

Khám phá nguyên nhân gây ra ảo giác trong các Mô hình Ngôn ngữ Lớn (LLM) và tìm hiểu các chiến lược hiệu quả để giảm thiểu sự không chính xác trong nội dung do AI tạo ra.

Trong bối cảnh của Mô hình Ngôn ngữ Lớn (LLM) , ảo giác xảy ra khi một mô hình tạo ra nội dung chắc chắn và trôi chảy về mặt cú pháp nhưng lại sai lệch về mặt thực tế, vô nghĩa hoặc không trung thành với tài liệu nguồn. Không giống như các lỗi truy xuất cơ sở dữ liệu tiêu chuẩn, ảo giác trong AI tạo ra thường nghe có vẻ hợp lý, khiến người dùng khó nhận ra. detect không có xác minh độc lập. Hiện tượng này xuất phát từ thiết kế cơ bản của các mô hình này, vốn ưu tiên việc tạo văn bản dựa trên xác suất thống kê hơn là xác thực sự thật. Việc hiểu rõ ảo giác là rất quan trọng để triển khai các hệ thống AI an toàn, đặc biệt là trong các ngành công nghiệp có rủi ro cao như chăm sóc sức khỏe, tài chính và dịch vụ pháp lý.

Tại sao LLM gây ảo giác

Nguyên nhân chính gây ra ảo giác nằm ở kiến trúc Transformer và các mục tiêu đào tạo được sử dụng để xây dựng các mô hình nền tảng. Các hệ thống này được đào tạo để dự đoán mã thông báo tiếp theo trong một chuỗi dựa trên các mẫu học được từ một lượng lớn dữ liệu đào tạo . Chúng không sở hữu khái niệm cố hữu về "sự thật" hay "hư cấu"; thay vào đó, chúng mô hình hóa khả năng các từ xuất hiện cùng nhau.

Có một số yếu tố góp phần vào hành vi này:

  • Hạn chế về dữ liệu: Nếu tập dữ liệu huấn luyện chứa thông tin mâu thuẫn, lỗi thời hoặc không chính xác, mô hình có thể tái tạo những lỗi này. Điều này thường được thảo luận trong nghiên cứu về vẹt ngẫu nhiên , trong đó các mô hình bắt chước các dạng ngôn ngữ mà không hiểu nghĩa.
  • Hiện tượng nén: LLM nén kiến thức internet thành một tập hợp các tham số cố định. Trong quá trình nén này, sắc thái có thể bị mất đi, dẫn đến việc gộp chung các khái niệm riêng biệt.
  • Sự mơ hồ trong suy luận: Khi một mô hình gặp phải lời nhắc nằm ngoài phân phối kiến thức của nó, nó có thể mặc định tạo ra phản ứng có khả năng thống kê cao nhất thay vì thừa nhận sự thiếu hiểu biết, một hành vi thường được gọi là "bịa đặt".

Các ví dụ thực tế về ảo giác

Ảo giác có thể biểu hiện dưới nhiều hình thức khác nhau, từ những sai sót nhỏ đến những bịa đặt hoàn toàn:

  • Bịa đặt hồ sơ pháp lý: Trong một vụ việc được công bố rộng rãi, một chuyên gia pháp lý đã sử dụng bằng Thạc sĩ Luật (LLM) để nghiên cứu hồ sơ. Mô hình này đã tạo ra một bản tóm tắt pháp lý, trích dẫn một số vụ án không tồn tại với các trích dẫn và ý kiến tư pháp bịa đặt, dẫn đến các biện pháp trừng phạt.
  • Phát minh thư viện mã hóa: Các nhà phát triển sử dụng trợ lý mã hóa AI đôi khi gặp phải các đề xuất về thư viện phần mềm hoặc phương thức API không thực sự tồn tại. Mô hình tạo ra ảo giác về một tên hàm hợp lý (ví dụ: ultralytics.detect_everything()) dựa trên các quy ước đặt tên chuẩn mà nó thấy trong dữ liệu đào tạo, mặc dù chức năng cụ thể đó chưa bao giờ được triển khai.

Các chiến lược giảm thiểu

Giảm ảo giác là trọng tâm chính của nghiên cứu An toàn AI . Một số kỹ thuật hiện đang được sử dụng để đưa các mô hình vào thực tế:

  • Tạo tăng cường truy xuất (RAG): Phương pháp này kết nối LLM với một cơ sở tri thức bên ngoài đáng tin cậy, chẳng hạn như cơ sở dữ liệu vector . Thay vì chỉ dựa vào bộ nhớ trong, mô hình sẽ truy xuất các tài liệu liên quan trước khi tạo ra câu trả lời. Bạn có thể tìm hiểu thêm về cách RAG cải thiện độ chính xác trong các ứng dụng doanh nghiệp.
  • Kỹ thuật gợi ý: Các kỹ thuật như Gợi ý chuỗi suy nghĩ khuyến khích mô hình giải thích lý luận theo từng bước, điều này đã được chứng minh là làm giảm lỗi logic và cải thiện tính nhất quán về mặt thực tế.
  • Học tăng cường từ phản hồi của con người (RLHF): Các nhà phát triển sử dụng Học tăng cường từ phản hồi của con người (RLHF) để phạt mô hình về ảo giác trong giai đoạn tinh chỉnh, căn chỉnh đầu ra của nó theo sở thích của con người về tính trung thực.
  • Cơ sở đa phương thức: Trong các nhiệm vụ ngôn ngữ thị giác, ảo giác có thể được giảm bớt bằng cách xác minh đầu ra văn bản với dữ liệu có cấu trúc từ các mô hình Thị giác máy tính (CV) .

Nền tảng LLM với Thị giác máy tính

Một cách hiệu quả để giảm thiểu ảo giác trong quy trình làm việc đa phương thức là sử dụng mô hình phát hiện vật thể có độ chính xác cao để xác minh nội dung vật lý của hình ảnh trước khi LLM mô tả nó. Bằng cách đưa danh sách các vật thể đã được xác minh vào ngữ cảnh của LLM, bạn ngăn chặn việc LLM tự tạo ra các yếu tố không có thật.

Ví dụ sau đây minh họa cách sử dụng Ultralytics YOLO11 để tạo danh sách các đối tượng cơ bản, sau đó có thể dùng làm ràng buộc thực tế cho mô hình tạo sinh.

from ultralytics import YOLO

# Load the official YOLO11 model
model = YOLO("yolo11n.pt")

# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']

Ảo giác so với các thuật ngữ khác

Điều quan trọng là phải phân biệt ảo giác với các loại lỗi AI khác:

  • so với Thiên kiến: Thiên kiến trong AI đề cập đến định kiến có hệ thống trong kết quả đầu ra (ví dụ: định kiến), trong khi ảo giác đề cập đến sự không chính xác về mặt thực tế. Một tuyên bố có thể không thiên vị nhưng bị ảo giác, hoặc có thực tế nhưng bị thiên vị.
  • so với Lỗi Độ Chính Xác: Trong các nhiệm vụ phân loại, một dự đoán sai (như gán nhãn chó thành mèo) là một lỗi về độ chính xác, không phải là ảo giác. Ảo giác là đặc trưng của quá trình tạo ra nội dung mới.
  • so với Quá khớp: Trong khi quá khớp liên quan đến việc ghi nhớ dữ liệu đào tạo quá chặt chẽ, ảo giác thường xảy ra khi mô hình cố gắng khái quát hóa vượt ra ngoài dữ liệu đào tạo của nó và thất bại.

Để tìm hiểu thêm về việc đánh giá các mô hình tạo sinh, việc khám phá Khung Quản lý Rủi ro AI của NIST cung cấp cái nhìn toàn diện về các tiêu chuẩn về độ tin cậy và an toàn. Ngoài ra, các nhà nghiên cứu tiếp tục phát triển các thuật toán kiểm tra thực tế để tự động detect và đánh dấu nội dung gây ảo giác theo thời gian thực.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay