Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Sai lệch trong AI

Khám phá cách xác định, giảm thiểu và ngăn chặn sự thiên vị trong các hệ thống AI bằng các chiến lược, công cụ và ví dụ thực tế để phát triển AI có đạo đức.

Thiên kiến ​​trong Trí tuệ Nhân tạo (AI) đề cập đến các lỗi hệ thống, định kiến ​​hoặc giả định không chính đáng được nhúng trong các hệ thống Trí tuệ Nhân tạo (AI) dẫn đến kết quả không công bằng, bất bình đẳng hoặc phân biệt đối xử. Không giống như các lỗi ngẫu nhiên, vốn không thể dự đoán được, thiên kiến ​​biểu hiện dưới dạng sự sai lệch kết quả một cách nhất quán theo hướng có lợi hoặc bất lợi cho các nhóm cụ thể, thường dựa trên các đặc điểm nhạy cảm như chủng tộc, giới tính, tuổi tác hoặc tình trạng kinh tế xã hội. Khi các mô hình Học máy (ML) ngày càng được triển khai trong các môi trường có tính rủi ro cao—từ AI trong chẩn đoán chăm sóc sức khỏe đến cho vay tài chính—việc xác định và giảm thiểu những thiên kiến ​​này đã trở thành một thành phần quan trọng của đạo đức AI và các giao thức an toàn.

Nguồn gốc và xuất xứ của sự thiên vị

Thiên kiến ​​hiếm khi được đưa vào một cách cố ý; thay vào đó, nó len lỏi vào các hệ thống thông qua nhiều giai đoạn của vòng đời phát triển, thường phản ánh sự bất bình đẳng trong lịch sử hoặc những sai sót trong việc thu thập dữ liệu.

  • Sai lệch dữ liệu : Đây là nguồn sai lệch phổ biến nhất, xảy ra khi dữ liệu huấn luyện không phản ánh chính xác dân số thực tế. Ví dụ, nếu một mô hình Thị giác máy tính (CV) được huấn luyện chủ yếu trên hình ảnh từ các nước phương Tây, nó có thể không nhận ra được bối cảnh văn hóa hoặc các đối tượng từ các khu vực khác, một hiện tượng thường liên quan đến sai lệch chọn lọc .
  • Thiên kiến ​​thuật toán : Ngay cả với dữ liệu hoàn hảo, thiết kế của mô hình vẫn có thể dẫn đến sự bất công. Một số thuật toán tối ưu hóa ưu tiên các chỉ số độ chính xác tổng thể, điều này có thể vô tình hy sinh hiệu suất trên các nhóm nhỏ hơn, ít được đại diện để tối đa hóa điểm số tổng thể.
  • Thiên kiến ​​nhận thức và lịch sử : Những định kiến ​​của con người có thể được mã hóa vào các nhãn dữ liệu thực tế trong quá trình gắn nhãn dữ liệu . Nếu người gắn nhãn có những định kiến ​​vô thức, mô hình sẽ học cách sao chép những đánh giá chủ quan này, từ đó tự động hóa hiệu quả các bất bình đẳng xã hội hiện có.

Ý nghĩa thực tiễn

Hậu quả của sự thiên vị trong trí tuệ nhân tạo có thể rất nghiêm trọng, ảnh hưởng đến quyền và sự an toàn của cá nhân.

Các chiến lược giảm thiểu

Giải quyết vấn đề thiên kiến ​​đòi hỏi một cách tiếp cận chủ động trong suốt quá trình huấn luyện và triển khai mô hình .

  1. Quản lý dữ liệu đa dạng : việc sử dụng các công cụ như Nền tảng Ultralytics cho phép các nhóm hình dung sự phân bố dữ liệu và xác định những thiếu sót trong việc đại diện dữ liệu trước khi bắt đầu quá trình huấn luyện.
  2. Kiểm thử có tính đến sự công bằng : Thay vì chỉ dựa vào các số liệu tổng hợp, các nhà phát triển nên thực hiện đánh giá mô hình chi tiết trên các nhóm nhân khẩu học khác nhau để đảm bảo hiệu suất công bằng.
  3. Khả năng giải thích : Việc triển khai các kỹ thuật Trí tuệ nhân tạo có thể giải thích (XAI) giúp các bên liên quan hiểu được lý do tại sao mô hình đưa ra quyết định, giúp dễ dàng phát hiện ra logic phân biệt đối xử hoặc sự phụ thuộc vào các biến thay thế (ví dụ: sử dụng mã bưu chính làm biến thay thế cho chủng tộc).

Phân biệt các khái niệm liên quan

Điều quan trọng là phải phân biệt "Thiên kiến ​​trong AI" với các cách sử dụng thuật ngữ "thiên kiến" khác.

  • So với sự đánh đổi giữa độ lệch và phương sai : Trong học máy thống kê, điều này đề cập đến sai số phát sinh do việc xấp xỉ một vấn đề thực tế bằng một mô hình đơn giản hóa (hiện tượng thiếu khớp). Đây là một khái niệm toán học liên quan đến độ phức tạp của mô hình, khác với định kiến ​​xã hội được ngụ ý bởi "Sự lệch lạc trong trí tuệ nhân tạo".
  • So với Weights and Biases của Mô hình : Trong mạng nơ-ron , thuật ngữ "độ lệch" là một tham số có thể học được (giống như hệ số chặn trong phương trình tuyến tính) cho phép hàm kích hoạt được dịch chuyển. Đây là một thành phần toán học cơ bản, chứ không phải là một lỗi đạo đức.
  • So với sự công bằng trong AI : Trong khi thiên kiến ​​đề cập đến sự hiện diện của định kiến ​​hoặc sai sót, thì công bằng là mục tiêu hoặc tập hợp các biện pháp khắc phục được áp dụng để loại bỏ thiên kiến ​​đó.

Ví dụ kỹ thuật: Đánh giá hiệu suất của nhóm con

ĐẾN detect Để tránh thiên kiến, các nhà phát triển thường kiểm tra mô hình của họ trên các tập dữ liệu "thử thách" cụ thể đại diện cho các nhóm thiểu số. Ví dụ sau đây minh họa cách sử dụng YOLO26 để xác thực hiệu suất trên một tập con dữ liệu cụ thể.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")

# Validate the model on a specific dataset split designed to test
# performance on an underrepresented environment (e.g., 'night_time.yaml')
metrics = model.val(data="night_time_data.yaml")

# Analyze specific metrics to check for performance degradation
print(f"mAP50-95 on challenge set: {metrics.box.map}")

Các tiêu chuẩn như Khung quản lý rủi ro AI của NIST và các quy định như Đạo luật AI của EU ngày càng yêu cầu bắt buộc các loại kiểm toán thiên vị này để đảm bảo phát triển AI có trách nhiệm .

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay