Khám phá AI có thể giải thích (XAI): Xây dựng lòng tin, đảm bảo trách nhiệm giải trình và đáp ứng các quy định bằng những hiểu biết có thể diễn giải để đưa ra các quyết định AI thông minh hơn.
Trí tuệ nhân tạo có thể giải thích (XAI) là một tập hợp các quy trình, công cụ và phương pháp cho phép người dùng hiểu và tin tưởng vào kết quả và đầu ra do các thuật toán học máy (ML) tạo ra. Khi các hệ thống Trí tuệ nhân tạo (AI) ngày càng tiên tiến, đặc biệt là trong lĩnh vực học sâu (DL) , chúng thường hoạt động như những "hộp đen". Điều này có nghĩa là mặc dù hệ thống có thể đưa ra dự đoán chính xác, nhưng logic nội bộ được sử dụng để đưa ra quyết định đó lại không rõ ràng hoặc bị ẩn khỏi người dùng. XAI hướng đến việc làm sáng tỏ quá trình này, thu hẹp khoảng cách giữa mạng lưới nơ-ron phức tạp và sự hiểu biết của con người.
Mục tiêu chính của XAI là đảm bảo các hệ thống AI minh bạch, dễ diễn giải và có trách nhiệm giải trình. Điều này rất quan trọng để gỡ lỗi và cải thiện hiệu suất mô hình, nhưng cũng không kém phần quan trọng để xây dựng niềm tin với các bên liên quan. Trong các lĩnh vực quan trọng về an toàn, người dùng phải xác minh rằng các quyết định của mô hình dựa trên lập luận hợp lý chứ không phải dựa trên các mối tương quan giả tạo. Ví dụ, Khung Quản lý Rủi ro AI của NIST nhấn mạnh khả năng giải thích là một đặc điểm chính của các hệ thống đáng tin cậy. Hơn nữa, các quy định mới nổi như Đạo luật AI của Liên minh Châu Âu đang đặt ra các tiêu chuẩn pháp lý yêu cầu các hệ thống AI có rủi ro cao phải cung cấp các giải thích dễ hiểu cho các quyết định tự động của chúng.
Việc triển khai XAI cũng đóng vai trò quan trọng trong việc duy trì Đạo đức AI . Bằng cách trực quan hóa cách một mô hình cân nhắc các tính năng khác nhau, các nhà phát triển có thể detect và giảm thiểu sai lệch thuật toán , đảm bảo tính công bằng hơn trong việc triển khai AI . Các sáng kiến như chương trình AI có thể giải thích của DARPA đã thúc đẩy nghiên cứu đáng kể về các kỹ thuật giúp những công cụ mạnh mẽ này dễ tiếp cận hơn với những người không chuyên.
Có một số cách tiếp cận để đạt được khả năng giải thích, thường được phân loại theo tính độc lập với mô hình hay cụ thể với mô hình.
AI có thể giải thích đang chuyển đổi các ngành công nghiệp nơi mà lý do đưa ra quyết định cũng quan trọng như chính quyết định đó.
Sẽ rất hữu ích khi phân biệt XAI với các khái niệm liên quan trong thuật ngữ AI:
Khi sử dụng các mô hình như YOLO11 vì
phát hiện đối tượng, hiểu được kết quả đầu ra là bước đầu tiên hướng tới khả năng giải thích. ultralytics gói này cung cấp khả năng truy cập dễ dàng vào dữ liệu phát hiện, đóng vai trò là nền tảng cho việc phân tích hoặc trực quan hóa XAI tiếp theo.
from ultralytics import YOLO
# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")
# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()
Bằng cách trực quan hóa các hộp giới hạn và nhãn lớp, người dùng có thể thực hiện kiểm chứng "bằng mắt" cơ bản - một khía cạnh cơ bản của việc đánh giá và giám sát mô hình . Đối với các nhu cầu nâng cao hơn, các nhà nghiên cứu thường tích hợp các kết quả này với các thư viện được thiết kế riêng để phân bổ tính năng chi tiết.