Ảo giác (trong LLM)
Khám phá nguyên nhân gây ra ảo giác trong Mô hình ngôn ngữ lớn (LLM) và khám phá các chiến lược hiệu quả để giảm thiểu sự không chính xác trong nội dung do AI tạo ra.
Trong bối cảnh của Mô hình Ngôn ngữ Lớn (LLM), ảo giác đề cập đến hiện tượng mô hình tạo ra văn bản có vẻ tự tin và hợp lý nhưng lại sai lệch về mặt thực tế, vô nghĩa hoặc không dựa trên dữ liệu nguồn được cung cấp. Các mô hình này, được thiết kế cho việc tạo văn bản nâng cao, đôi khi có thể bịa đặt các sự kiện, nguồn hoặc chi tiết, trình bày chúng như thể chúng là sự thật. Điều này xảy ra bởi vì mục tiêu chính của LLM là dự đoán từ tiếp theo trong một chuỗi để tạo thành các câu mạch lạc, chứ không phải để xác minh tính xác thực của thông tin mà nó tạo ra. Việc hiểu và giảm thiểu ảo giác là một thách thức cốt lõi trong việc làm cho Trí tuệ Nhân tạo (AI) trở nên đáng tin cậy hơn.
Tại sao những người học LLM lại bị ảo giác?
Ảo giác không phải là sự lừa dối cố ý mà là sản phẩm phụ của quá trình xây dựng và đào tạo các LLM. Các nguyên nhân chính bao gồm:
- Dữ liệu huấn luyện không hoàn hảo: Các mô hình như GPT-3 và GPT-4 học từ khối lượng lớn văn bản trên internet, vốn không tránh khỏi việc chứa lỗi, thông tin lỗi thời và sai lệch thuật toán . Mô hình học các mẫu này từ dữ liệu huấn luyện mà không có sự hiểu biết vốn có về sự thật.
- Thiết kế Kiến trúc: Kiến trúc Transformer cơ bản được tối ưu hóa cho việc so khớp mẫu và mô hình hóa ngôn ngữ , chứ không phải cho việc nhớ lại sự kiện hay suy luận logic. Điều này có thể dẫn đến cái mà một số nhà nghiên cứu gọi là " con vẹt ngẫu nhiên ", một thực thể có thể bắt chước ngôn ngữ mà không hiểu nghĩa của nó.
- Sự mơ hồ về thời gian suy luận: Trong quá trình tạo, nếu mô hình không chắc chắn về mã thông báo tốt nhất tiếp theo, nó có thể "lấp đầy khoảng trống" bằng thông tin hợp lý nhưng bịa đặt. Việc điều chỉnh các tham số suy luận như nhiệt độ đôi khi có thể giảm thiểu điều này, nhưng đây vẫn là một thách thức cốt lõi. Để biết tổng quan kỹ thuật, hãy xem khảo sát này về ảo giác LLM từ arXiv .
Ví dụ thực tế về ảo giác
- Nghiên cứu Pháp lý: Một luật sư sử dụng trợ lý AI để nghiên cứu vụ án đã yêu cầu nó tìm kiếm tiền lệ pháp lý. Chatbot đã trích dẫn một số vụ án hoàn toàn bịa đặt, bao gồm tên vụ án và phân tích pháp lý, có vẻ hợp lý nhưng không tồn tại. Sự cố thực tế này đã nêu bật những rủi ro nghiêm trọng khi triển khai chương trình Thạc sĩ Luật (LLM) trong các lĩnh vực rủi ro cao mà không có sự kiểm tra thực tế chặt chẽ.
- Đề xuất sản phẩm: Người dùng yêu cầu chatbot giới thiệu "ba lô đi bộ đường dài tốt nhất có tích hợp tấm pin năng lượng mặt trời". LLM có thể tự tin đề xuất một mẫu cụ thể, mô tả chi tiết các tính năng của nó, ngay cả khi sản phẩm hoặc tính năng cụ thể đó không tồn tại. Mô hình kết hợp các khái niệm từ dữ liệu đào tạo để tạo ra một sản phẩm hợp lý nhưng hư cấu.
Làm thế nào để giảm ảo giác
Các nhà nghiên cứu và nhà phát triển đang tích cực nghiên cứu một số chiến lược giảm thiểu:
Ảo giác so với các lỗi AI khác