Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

AI có khả năng giải thích (XAI)

Khám phá AI có thể giải thích (XAI): Xây dựng lòng tin, đảm bảo trách nhiệm giải trình và đáp ứng các quy định bằng những hiểu biết có thể diễn giải để đưa ra các quyết định AI thông minh hơn.

Trí tuệ nhân tạo có thể giải thích (XAI) đề cập đến một tập hợp toàn diện các quy trình, công cụ và phương pháp được thiết kế để làm cho kết quả đầu ra của các hệ thống Trí tuệ nhân tạo (AI) trở nên dễ hiểu đối với người dùng. Khi các tổ chức ngày càng triển khai các mô hình Học máy (ML) phức tạp — đặc biệt là trong lĩnh vực Học sâu (DL) — các hệ thống này thường hoạt động như "hộp đen". Mặc dù mô hình hộp đen có thể cung cấp các dự đoán có độ chính xác cao, nhưng logic ra quyết định bên trong của nó vẫn không rõ ràng. XAI nhằm mục đích làm sáng tỏ quá trình này, giúp các bên liên quan hiểu được lý do tại sao một quyết định cụ thể được đưa ra, điều này rất quan trọng để thúc đẩy lòng tin, đảm bảo an toàn và đáp ứng các yêu cầu tuân thủ quy định.

Tầm quan trọng của khả năng giải thích

Nhu cầu về tính minh bạch trong việc ra quyết định tự động đang thúc đẩy việc áp dụng XAI trên khắp các ngành công nghiệp. Lòng tin là yếu tố hàng đầu; người dùng ít có khả năng tin tưởng vào Mô hình Dự đoán nếu họ không thể xác minh lý do đằng sau nó. Điều này đặc biệt quan trọng trong môi trường có rủi ro cao, nơi sai sót có thể gây ra hậu quả nghiêm trọng.

Các kỹ thuật phổ biến trong XAI

Có nhiều kỹ thuật khác nhau để làm cho Mạng nơ-ron trở nên minh bạch hơn, thường được phân loại dựa trên việc chúng có tính chất trung lập với mô hình (áp dụng cho bất kỳ thuật toán nào) hay đặc thù với mô hình nào.

  • SHAP (SHapley Additive exPlanations): Dựa trên lý thuyết trò chơi hợp tác, giá trị SHAP gán điểm đóng góp cho mỗi đặc trưng đối với một dự đoán nhất định, giải thích mức độ mỗi yếu tố đầu vào làm thay đổi kết quả so với đường cơ sở.
  • LIME (Giải thích cục bộ, không phụ thuộc vào mô hình): Phương pháp này xấp xỉ một mô hình phức tạp bằng một mô hình đơn giản hơn, dễ hiểu hơn (như mô hình tuyến tính) xung quanh một dự đoán cụ thể. LIME giúp giải thích các trường hợp riêng lẻ bằng cách thay đổi đầu vào và quan sát sự thay đổi đầu ra.
  • Bản đồ nổi bật (Saliency Maps): Được sử dụng rộng rãi trong Thị giác máy tính (Computer Vision - CV) , các hình ảnh trực quan này làm nổi bật các pixel trong ảnh có ảnh hưởng lớn nhất đến quyết định của mô hình. Các phương pháp như Grad-CAM tạo ra bản đồ nhiệt để hiển thị vị trí mà mô hình "quan sát" để nhận dạng đối tượng.

Các Ứng dụng Thực tế

Trí tuệ nhân tạo có khả năng giải thích (Explainable AI) rất quan trọng trong các lĩnh vực mà "lý do" cũng quan trọng như "kết quả".

  1. Chẩn đoán Y tế: Trong phân tích hình ảnh y tế , việc chỉ đơn thuần gắn cờ một ảnh chụp X-ray là bất thường là chưa đủ. Hệ thống hỗ trợ XAI sẽ làm nổi bật vùng cụ thể của phổi hoặc xương đã gây ra cảnh báo. Bằng chứng trực quan này cho phép các bác sĩ X-quang xác nhận kết quả của mô hình, tạo điều kiện thuận lợi cho việc ứng dụng AI an toàn hơn trong chăm sóc sức khỏe .
  2. Dịch vụ tài chính: Khi các ngân hàng sử dụng thuật toán để chấm điểm tín dụng, việc từ chối đơn xin vay cần có lý do chính đáng để tuân thủ các luật như Đạo luật Cơ hội Tín dụng Bình đẳng . Các công cụ XAI có thể phân tích lý do từ chối thành các yếu tố dễ hiểu—chẳng hạn như "tỷ lệ nợ trên thu nhập quá cao"—thúc đẩy sự công bằng trong AI và cho phép người nộp đơn giải quyết các vấn đề cụ thể.

Phân biệt các thuật ngữ liên quan

Việc phân biệt XAI với các khái niệm tương tự trong thuật ngữ AI là rất hữu ích:

  • XAI so với Tính minh bạch trong AI : Tính minh bạch là một khái niệm rộng hơn, bao gồm sự cởi mở của toàn bộ hệ thống, kể cả nguồn dữ liệu và quy trình phát triển. XAI tập trung cụ thể vào các kỹ thuật được sử dụng để làm cho lý do suy luận trở nên dễ hiểu. Tính minh bạch có thể bao gồm việc công bố Trọng số Mô hình , trong khi XAI giải thích lý do tại sao các trọng số đó tạo ra một kết quả cụ thể.
  • XAI so với Khả năng diễn giải: Khả năng diễn giải thường đề cập đến các mô hình vốn dĩ dễ hiểu ngay từ thiết kế, chẳng hạn như Cây quyết định hoặc hồi quy tuyến tính. XAI thường liên quan đến các phương pháp hậu xử lý được áp dụng cho các mô hình phức tạp, không thể diễn giải được như Mạng nơ-ron tích chập sâu (CNN) .

Ví dụ mã: Trực quan hóa suy luận để giải thích

Một bước cơ bản trong việc giải thích cho thị giác máy tính là trực quan hóa các dự đoán của mô hình trực tiếp trên hình ảnh. Mặc dù XAI tiên tiến sử dụng bản đồ nhiệt, việc nhìn thấy các hộp giới hạn và điểm tin cậy cung cấp cái nhìn sâu sắc ngay lập tức về những gì mô hình đã phát hiện. Sử dụng ultralytics gói sản phẩm với các mô hình tiên tiến như YOLO26Người dùng có thể dễ dàng kiểm tra kết quả phát hiện.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()

Hình ảnh trực quan đơn giản này đóng vai trò như một bước kiểm tra cơ bản, một dạng giải thích đơn giản xác nhận rằng mô hình đang chú ý đến các đối tượng có liên quan trong cảnh trong các tác vụ Phát hiện Đối tượng . Đối với các quy trình làm việc nâng cao hơn liên quan đến quản lý tập dữ liệu và trực quan hóa quá trình huấn luyện mô hình, người dùng có thể tận dụng Nền tảng Ultralytics . Các nhà nghiên cứu thường mở rộng điều này bằng cách truy cập vào các bản đồ đặc trưng cơ bản để phân tích sâu hơn được mô tả trong Nguyên tắc NIST XAI .

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay