Đón xem YOLO Vision 2025!
25 tháng 9, 2025
10:00 — 18:00 BST
Sự kiện kết hợp
Yolo Vision 2024
Bảng chú giải thuật ngữ

Chuẩn hóa (Normalization)

Khám phá sức mạnh của chuẩn hóa trong machine learning! Tìm hiểu cách nó tăng cường quá trình huấn luyện mô hình, nâng cao hiệu suất và đảm bảo các giải pháp AI mạnh mẽ.

Chuẩn hóa (Normalization) là một kỹ thuật tiền xử lý dữ liệu quan trọng trong học máy (ML)trí tuệ nhân tạo (AI). Nó bao gồm việc chuyển đổi các đặc trưng số của một tập dữ liệu thành một thang đo chung mà không làm sai lệch sự khác biệt trong phạm vi của chúng. Quá trình chia tỷ lệ này rất quan trọng đối với hiệu suất và tính ổn định của nhiều thuật toán, đặc biệt là những thuật toán nhạy cảm với độ lớn của các giá trị đầu vào, chẳng hạn như các phương pháp tối ưu hóa dựa trên gradient được sử dụng trong quá trình huấn luyện mạng nơ-ron (NN). Bằng cách đảm bảo rằng tất cả các đặc trưng đóng góp tương ứng vào quá trình học tập của mô hình, chuẩn hóa giúp tăng tốc quá trình huấn luyện và cải thiện độ chính xác tổng thể của mô hình.

Tại sao chuẩn hóa (Normalization) lại quan trọng?

Nếu không có chuẩn hóa, các đặc trưng có thang đo lớn hơn có thể chi phối quá trình học của mô hình. Ví dụ: trong một tập dữ liệu để dự đoán giá nhà, một đặc trưng như "diện tích vuông" (ví dụ: 1000-3000) sẽ có phạm vi lớn hơn nhiều so với "số lượng phòng ngủ" (ví dụ: 2-5). Sự khác biệt này có thể khiến các thuật toán như gradient descent mất nhiều thời gian hơn để hội tụ hoặc bị mắc kẹt trong các điểm cực trị cục bộ. Chuẩn hóa giảm thiểu điều này bằng cách đặt tất cả các đặc trưng trên một sân chơi bình đẳng, dẫn đến:

  • Hội tụ nhanh hơn: Các mô hình huấn luyện nhanh hơn vì thuật toán tối ưu hóa có thể điều hướng không gian mất mát hiệu quả hơn.
  • Cải thiện hiệu suất: Điều này rất cần thiết cho các thuật toán sử dụng các phép đo khoảng cách, chẳng hạn như k-Nearest Neighbors (k-NN), hoặc những thuật toán dựa trên cập nhật gradient, như Mạng nơ-ron tích chập (Convolutional Neural Networks - CNNs).
  • Giảm nguy cơ mất ổn định số: Nó giúp ngăn ngừa các vấn đề như gradient bùng nổ trong quá trình lan truyền ngược.
  • Đóng góp đặc trưng nhất quán: Nó đảm bảo rằng không có đặc trưng đơn lẻ nào ảnh hưởng đến mô hình một cách không cân xứng chỉ vì tỷ lệ của nó. Đây là một khía cạnh quan trọng của kỹ thuật đặc trưng phù hợp.

Chuẩn hóa (Normalization) so với Tiêu chuẩn hóa (Standardization) so với Chuẩn hóa theo lô (Batch Normalization)

Mặc dù thường được sử dụng thay thế cho nhau, chuẩn hóa (normalization) và tiêu chuẩn hóa (standardization) là các kỹ thuật riêng biệt. Điều quan trọng nữa là phải phân biệt chuẩn hóa dữ liệu với Batch Normalization.

  • Normalization (Min-Max Scaling) (Chuẩn hóa (Tỉ lệ Min-Max)):/strong> Kỹ thuật này điều chỉnh dữ liệu theo một phạm vi cố định, thường là. Nó hữu ích khi phân phối dữ liệu không phải là Gaussian hoặc khi thuật toán không giả định bất kỳ phân phối cụ thể nào. Đây là một bước phổ biến trong tiền xử lý dữ liệu.
  • Chuẩn hóa (Z-score Normalization): Kỹ thuật này điều chỉnh lại dữ liệu để có giá trị trung bình là 0 và độ lệch chuẩn là 1. Không giống như min-max scaling, nó không có phạm vi giới hạn. Chuẩn hóa thường được ưu tiên khi dữ liệu tuân theo phân phối Gaussian và ít bị ảnh hưởng bởi các giá trị ngoại lệ.
  • Chuẩn hóa theo lô (Batch Normalization): Đây không phải là một bước tiền xử lý dữ liệu mà là một lớp được sử dụng trong một mô hình học sâu. Nó chuẩn hóa các đầu vào cho một lớp cho mỗi mini-batch trong quá trình huấn luyện. Điều này giúp chống lại sự thay đổi hiệp biến bên trong, ổn định và tăng tốc quá trình huấn luyện của các mạng sâu. Nó là một thành phần tiêu chuẩn trong nhiều kiến trúc hiện đại, bao gồm các mô hình Ultralytics YOLO, và được triển khai trong các framework như PyTorchTensorFlow.

Ứng dụng của Chuẩn hóa

Chuẩn hóa là một thông lệ tiêu chuẩn trong nhiều lĩnh vực khác nhau, đặc biệt là trong thị giác máy tính (CV). Các nền tảng như Ultralytics HUB hợp lý hóa các quy trình làm việc, trong đó quá trình tiền xử lý như vậy là rất cần thiết để huấn luyện các mô hình hiệu suất cao.

  • Tiền Xử Lý Dữ Liệu Ảnh: Trong thị giác máy tính, hình ảnh bao gồm các giá trị pixel, thường nằm trong khoảng từ 0 đến 255. Trước khi đưa một hình ảnh vào mô hình cho các tác vụ như phân loại ảnh hoặc phát hiện đối tượng, các giá trị pixel này hầu như luôn được chuẩn hóa. Việc chia tỷ lệ chúng thành phạm vi hoặc [-1, 1] đảm bảo tính nhất quán trên tất cả các hình ảnh trong một bộ dữ liệu, điều này rất quan trọng để các mô hình như YOLO11 học các tính năng một cách hiệu quả.
  • Phân tích ảnh y tế: Trong các lĩnh vực như AI trong chăm sóc sức khỏe, ảnh chụp y tế như MRI hoặc CT thường đến từ các máy khác nhau với các cài đặt khác nhau, dẫn đến các thang cường độ khác nhau. Khi sử dụng AI để phát hiện khối u, việc chuẩn hóa các bản quét này là một bước quan trọng. Nó đảm bảo rằng phân tích của mô hình có thể so sánh được giữa các bệnh nhân và thiết bị khác nhau, dẫn đến các dự đoán chẩn đoán chính xác và đáng tin cậy hơn. Đây là một khái niệm cơ bản trong phân tích ảnh y tế.
  • Mô hình hóa dự đoán trong tài chính: Khi xây dựng mô hình để dự đoán giá cổ phiếu hoặc đánh giá rủi ro tín dụng, các bộ dữ liệu thường bao gồm các đặc trưng có quy mô rất khác nhau, chẳng hạn như khối lượng giao dịch (hàng triệu) và tỷ lệ giá trên thu nhập (ví dụ: 10-50). Chuẩn hóa các đặc trưng này là điều cần thiết đối với các thuật toán dựa trên khoảng cách và đảm bảo rằng học dựa trên độ dốc không bị lệch bởi các đặc trưng có độ lớn lớn hơn, một thông lệ phổ biến trong thị giác máy tính trong tài chính.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay
Đã sao chép liên kết vào clipboard