Đón xem YOLO Vision 2025!
25 tháng 9, 2025
10:00 — 18:00 BST
Sự kiện kết hợp
Yolo Vision 2024

Tất cả những gì bạn cần biết về AI có thể giải thích (XAI)

Abirami Vina

4 phút đọc

Ngày 13 tháng 12 năm 2024

Khám phá cách AI có thể giải thích (XAI) xây dựng lòng tin bằng cách làm cho các dự đoán AI trở nên minh bạch và đáng tin cậy trong các lĩnh vực chăm sóc sức khỏe, an ninh, lái xe tự động và hơn thế nữa.

Bạn đã bao giờ thấy phản hồi từ một công cụ trí tuệ nhân tạo (AI) như ChatGPT và tự hỏi làm thế nào nó đi đến kết luận đó chưa? Đó chính là vấn đề “hộp đen” của AI. Đây là thuật ngữ đề cập đến việc thiếu rõ ràng về cách các mô hình AI xử lý và phân tích dữ liệu. Ngay cả các kỹ sư và nhà khoa học AI, những người thường xuyên làm việc với các thuật toán AI tiên tiến, cũng có thể thấy khó khăn trong việc hiểu đầy đủ hoạt động bên trong của chúng. Trên thực tế, chỉ có 22% chuyên gia CNTT thực sự hiểu khả năng của các công cụ AI. 

Sự không chắc chắn xung quanh cách các mô hình AI đưa ra quyết định có thể gây rủi ro, đặc biệt là trong các lĩnh vực quan trọng như thị giác máy tính trong chăm sóc sức khỏeAI trong tài chính. Tuy nhiên, những tiến bộ đáng kể đang được thực hiện để giải quyết những thách thức này và cải thiện tính minh bạch.

Đặc biệt, AI có thể giải thích (XAI) chỉ tập trung vào việc giải quyết mối lo ngại này. Nói một cách đơn giản, nó là một tập hợp các quy trình và phương pháp giúp người dùng hiểu và tin tưởng vào kết quả hoặc đầu ra do các thuật toán học máy phức tạp đưa ra. 

XAI có thể giúp các nhà phát triển đảm bảo rằng các hệ thống AI đang hoạt động như mong đợi. Nó cũng có thể giúp các công ty AI đáp ứng các tiêu chuẩn quy định. Trong bài viết này, chúng ta sẽ khám phá AI có thể giải thích và một loạt các trường hợp sử dụng của nó. Hãy bắt đầu nào!

Tầm quan trọng của AI có thể giải thích được

Tính giải thích được là yếu tố then chốt khi làm việc với AI. Điều này đặc biệt đúng với lĩnh vực con của AI, thị giác máy tính, được sử dụng rộng rãi trong các ứng dụng thuộc các ngành như chăm sóc sức khỏe. Khi sử dụng mô hình thị giác trong các ngành nhạy cảm như vậy, điều quan trọng là hoạt động của mô hình phải minh bạch và dễ hiểu đối với tất cả mọi người. 

Tính giải thích trong các mô hình thị giác máy tính giúp người dùng hiểu rõ hơn về cách một dự đoán được đưa ra và logic đằng sau nó. Tính minh bạch được tăng cường bằng cách làm rõ hoạt động của mô hình cho mọi người bằng cách vạch ra rõ ràng các hạn chế của mô hình và đảm bảo dữ liệu được sử dụng một cách có đạo đức. Ví dụ: thị giác máy tính có thể giúp các bác sĩ радиологи xác định hiệu quả các biến chứng sức khỏe trong ảnh chụp X-quang.

__wf_reserved_inherit
Fig 1. Ảnh chụp X-quang ngực được phân tích bằng Vision AI, hiển thị các phân loại bệnh lao: khỏe mạnh, bệnh, hoạt động và tiềm ẩn.

Tuy nhiên, một hệ thống thị giác chỉ chính xác thôi là chưa đủ. Hệ thống cũng cần có khả năng giải thích các quyết định của mình. Giả sử hệ thống có thể hiển thị những phần nào của hình ảnh dẫn đến kết luận của nó - thì bất kỳ kết quả đầu ra nào cũng sẽ rõ ràng hơn. Mức độ minh bạch như vậy sẽ giúp các chuyên gia y tế kiểm tra kỹ lưỡng các phát hiện của họ và đảm bảo rằng việc chăm sóc bệnh nhân đáp ứng các tiêu chuẩn y tế. 

Một lý do khác khiến khả năng giải thích (explainability) trở nên thiết yếu là vì nó giúp các công ty AI có trách nhiệm giải trình và xây dựng lòng tin ở người dùng. AI đáng tin cậy giúp người dùng cảm thấy tự tin rằng các cải tiến AI hoạt động đáng tin cậy, đưa ra các quyết định công bằng và xử lý dữ liệu có trách nhiệm

Các kỹ thuật AI có thể giải thích chính trong thị giác máy tính

Sau khi thảo luận về lý do tại sao khả năng giải thích lại quan trọng trong thị giác máy tính, hãy cùng xem xét các kỹ thuật XAI chính được sử dụng trong Vision AI.

Bản đồ nổi bật

Mạng nơ-ron (Neural networks) là các mô hình được lấy cảm hứng từ bộ não con người, được thiết kế để nhận dạng các mẫu và đưa ra quyết định bằng cách xử lý dữ liệu thông qua các lớp nút (nơ-ron) được kết nối với nhau. Chúng có thể được sử dụng để giải quyết các vấn đề thị giác máy tính phức tạp với độ chính xác cao. Ngay cả với độ chính xác này, chúng vẫn là hộp đen theo thiết kế. 

Bản đồ nổi bật là một kỹ thuật XAI có thể được sử dụng để giúp hiểu rõ hơn về những gì mạng nơ-ron nhìn thấy khi chúng phân tích hình ảnh. Nó cũng có thể được sử dụng để khắc phục sự cố mô hình trong trường hợp chúng không hoạt động như mong đợi. 

Bản đồ nổi bật hoạt động bằng cách tập trung vào những phần nào của hình ảnh (pixel) xác định các dự đoán của mô hình. Quá trình này rất giống với lan truyền ngược, trong đó mô hình truy ngược từ các dự đoán đến đầu vào. Nhưng thay vì cập nhật trọng số của mô hình dựa trên lỗi, chúng ta chỉ xem xét mức độ "quan trọng" của mỗi pixel đối với dự đoán. Bản đồ nổi bật rất hữu ích cho các tác vụ thị giác máy tính như phân loại hình ảnh.

Ví dụ: nếu một mô hình phân loại hình ảnh dự đoán rằng một hình ảnh là của một con chó, chúng ta có thể xem bản đồ nổi bật của nó để hiểu tại sao mô hình lại nghĩ đó là một con chó. Điều này giúp chúng ta xác định những pixel nào ảnh hưởng đến đầu ra nhiều nhất. Bản đồ nổi bật sẽ làm nổi bật tất cả các pixel đã đóng góp vào dự đoán cuối cùng rằng hình ảnh là một con chó.

__wf_reserved_inherit
Hình 2. So sánh trực quan ảnh đầu vào và bản đồ nổi bật của chúng.

Lập Bản Đồ Kích Hoạt Lớp (CAM)

Lập Bản Đồ Kích Hoạt Lớp là một kỹ thuật XAI khác được sử dụng để hiểu những phần nào của hình ảnh mà mạng nơ-ron tập trung vào khi đưa ra dự đoán phân loại hình ảnh. Nó hoạt động tương tự như bản đồ nổi bật nhưng tập trung vào việc xác định các đặc trưng quan trọng trong hình ảnh thay vì các pixel cụ thể. Đặc trưng là các mẫu hoặc chi tiết, như hình dạng hoặc kết cấu, mà mô hình phát hiện trong hình ảnh.

Các phương pháp như Gradient Weighted Class Activation Mapping (Grad-CAM) và Grad-CAM++ được xây dựng dựa trên cùng một ý tưởng, với một số cải tiến.

Đây là cách CAM hoạt động:

  • Trước khi mạng neural đưa ra quyết định cuối cùng, nó sử dụng một bước gọi là global average pooling (GAP) để đơn giản hóa thông tin. GAP kết hợp tất cả các pixel trong một mẫu được phát hiện thành một giá trị trung bình duy nhất, tạo ra một bản tóm tắt cho mỗi feature map (một biểu diễn trực quan của các mẫu được phát hiện).
  • Mỗi bản đồ đặc trưng sau đó được gán một trọng số cho biết mức độ quan trọng của nó đối với việc dự đoán một lớp nhất định (như "chim" hoặc "mèo").
  • Tuy nhiên, một hạn chế của CAM là bạn có thể cần phải huấn luyện lại mô hình để tính toán các trọng số này, điều này có thể tốn thời gian.

Grad-CAM cải thiện điều này bằng cách sử dụng gradient, giống như các tín hiệu cho biết mức độ ảnh hưởng của từng bản đồ đặc trưng đến dự đoán cuối cùng. Phương pháp này tránh sự cần thiết của GAP và giúp bạn dễ dàng thấy những gì mô hình tập trung vào mà không cần phải huấn luyện lại. Grad-CAM++ tiến thêm một bước nữa bằng cách chỉ tập trung vào những ảnh hưởng tích cực, điều này làm cho kết quả thậm chí còn rõ ràng hơn.

__wf_reserved_inherit
Hình 3. So sánh CAM, Grad-CAM và Grad-CAM++.

Giải thích phản thực tế

Giải thích phản thực tế là một yếu tố quan trọng của AI có thể giải thích được. Một lời giải thích phản thực tế liên quan đến việc mô tả một tình huống hoặc kết quả bằng cách xem xét các kịch bản hoặc sự kiện thay thế đã không xảy ra nhưng có thể đã xảy ra. Nó có thể chứng minh những thay đổi trong các biến đầu vào cụ thể dẫn đến các kết quả khác nhau như thế nào, chẳng hạn như: “Nếu X không xảy ra, thì Y đã không xảy ra.”

Khi nói đến AI và thị giác máy tính, một lời giải thích phản thực tế xác định sự thay đổi nhỏ nhất cần thiết trong một đầu vào (chẳng hạn như hình ảnh hoặc dữ liệu) để khiến một mô hình AI tạo ra một kết quả khác, cụ thể. Ví dụ: thay đổi màu sắc của một đối tượng trong một hình ảnh có thể thay đổi dự đoán của mô hình phân loại hình ảnh từ "mèo" thành "chó".

Một ví dụ khác là thay đổi góc độ hoặc ánh sáng trong hệ thống nhận diện khuôn mặt. Điều này có thể khiến mô hình xác định một cá nhân khác, cho thấy những thay đổi nhỏ trong đầu vào có thể ảnh hưởng đến dự đoán của mô hình như thế nào.

Cách đơn giản nhất để tạo ra những giải thích này là thử và sai: bạn có thể thay đổi ngẫu nhiên các phần của đầu vào (như các đặc điểm của hình ảnh hoặc dữ liệu) cho đến khi mô hình AI cho bạn kết quả mong muốn. Các phương pháp khác bao gồm các phương pháp không phụ thuộc vào mô hình, sử dụng tối ưu hóa và các kỹ thuật tìm kiếm để tìm các thay đổi, và các phương pháp dành riêng cho mô hình, dựa trên các cài đặt hoặc tính toán bên trong để xác định các thay đổi cần thiết.

Ứng dụng của AI có thể giải thích trong thị giác máy tính

Bây giờ chúng ta đã khám phá XAI là gì và các kỹ thuật chính của nó, chúng ta có thể xem xét cách nó được sử dụng trong thực tế. XAI có nhiều ứng dụng đa dạng trong nhiều lĩnh vực. Hãy đi sâu vào một số trường hợp sử dụng làm nổi bật tiềm năng của nó:

  • Hệ thống an ninh: XAI có thể được sử dụng để tăng cường các hệ thống an ninh bằng cách phát hiện các hình ảnh bị biến đổi trong các tài liệu nhận dạng như hộ chiếu và bằng lái xe. Điều này đảm bảo tính xác thực của hình ảnh, tăng cường quy trình xác minh danh tính và ngăn chặn các hoạt động gian lận trong các ứng dụng nhạy cảm.
__wf_reserved_inherit
Hình 4. Cách XAI hoạt động để phát hiện các hình ảnh bị biến đổi.

  • Lái xe tự động: Hiểu được khả năng và hạn chế của hệ thống Vision AI trên xe tự lái có thể là một phần rất quan trọng trong việc kiểm tra xe trước khi triển khai trên đường thực tế. XAI có thể giúp các công ty xe hơi xác định và giải quyết các vấn đề rõ ràng hơn.
  • Hệ thống pháp luật: Các hệ thống phân tích tài liệu hỗ trợ thị giác ngày càng được sử dụng nhiều hơn trong việc ra quyết định của tòa án. XAI hỗ trợ các kết quả công bằng và cho phép xem xét kỹ lưỡng các phán quyết tự động. Nó cũng giúp các chuyên gia pháp lý hiểu cách một mô hình AI đưa ra quyết định của mình.
  • Giám sát động vật hoang dã (Wildlife monitoring): Bẫy ảnh thường được sử dụng để theo dõi động vật hoang dã và thu thập dữ liệu về các loài động vật. XAI có thể được sử dụng để giải thích cách AI phân loại các loài này trong hình ảnh. Bằng cách đó, các nỗ lực bảo tồn có thể đáng tin cậy và chính xác hơn.

Những điểm chính về AI có thể giải thích được

AI có thể giải thích giúp bạn dễ dàng hiểu cách hệ thống AI hoạt động và lý do tại sao chúng đưa ra những quyết định nhất định. Tính minh bạch về các mô hình AI xây dựng lòng tin và trách nhiệm giải trình. Kiến thức là sức mạnh và giúp các đổi mới AI được sử dụng có trách nhiệm hơn. Trong các lĩnh vực quan trọng như chăm sóc sức khỏe, an ninh, lái xe tự động và hệ thống pháp luật, XAI có thể được sử dụng để giúp các nhà phát triển và người dùng hiểu các dự đoán của AI, xác định lỗi và đảm bảo sử dụng công bằng và có đạo đức. Bằng cách làm cho AI trở nên minh bạch hơn, XAI thu hẹp khoảng cách giữa công nghệ và sự tin tưởng của con người, làm cho nó an toàn hơn và đáng tin cậy hơn cho các ứng dụng thực tế.

Để tìm hiểu thêm, hãy truy cập kho lưu trữ GitHub của chúng tôi và tương tác với cộng đồng của chúng tôi. Khám phá các ứng dụng AI trong xe tự láinông nghiệp trên các trang giải pháp của chúng tôi. 🚀

Hãy cùng nhau xây dựng tương lai
của AI!

Bắt đầu hành trình của bạn với tương lai của học máy

Bắt đầu miễn phí
Đã sao chép liên kết vào clipboard