Đón xem YOLO Vision 2025!
25 tháng 9, 2025
10:00 — 18:00 BST
Sự kiện kết hợp
Yolo Vision 2024
Bảng chú giải thuật ngữ

Cơ chế chú ý

Khám phá cách cơ chế chú ý cách mạng hóa AI bằng cách tăng cường các tác vụ NLP và thị giác máy tính như dịch thuật, phát hiện đối tượng, v.v.!

Cơ chế chú ý là một kỹ thuật được sử dụng trong mạng nơ-ron mô phỏng sự chú ý nhận thức của con người. Nó cho phép một mô hình tập trung động vào các phần liên quan nhất của dữ liệu đầu vào khi tạo ra một đầu ra. Thay vì xử lý tất cả các phần của đầu vào một cách bình đẳng, mô hình học cách gán các điểm "chú ý" khác nhau cho mỗi phần, khuếch đại ảnh hưởng của thông tin quan trọng và giảm tác động của dữ liệu không liên quan. Khả năng này đã góp phần cải thiện hiệu suất của các mô hình trên nhiều lĩnh vực khác nhau, từ Xử lý ngôn ngữ tự nhiên (NLP) đến Thị giác máy tính (CV).

Cách Attention hoạt động

Về cốt lõi, một cơ chế attention tính toán một tập hợp các trọng số attention cho đầu vào. Các trọng số này xác định mô hình nên tập trung bao nhiêu vào mỗi phần tử của chuỗi hoặc hình ảnh đầu vào. Ví dụ: khi dịch một câu dài, mô hình cần tập trung vào các từ nguồn cụ thể để tạo ra từ tiếp theo chính xác trong bản dịch. Trước các cơ chế attention, các mô hình như Mạng nơ-ron hồi quy (RNN) truyền thống gặp khó khăn với các chuỗi dài, thường "quên" các phần trước đó của đầu vào—một vấn đề được gọi là vấn đề vanishing gradient. Attention khắc phục điều này bằng cách cung cấp kết nối trực tiếp đến tất cả các phần của đầu vào, cho phép mô hình nhìn lại bất kỳ phần nào của chuỗi khi cần, bất kể độ dài của nó. Khả năng xử lý các phụ thuộc tầm xa này là một bước đột phá quan trọng, được trình bày chi tiết trong bài báo "Attention Is All You Need."

Attention so với Self-Attention

Mặc dù thường được sử dụng thay thế cho nhau, điều quan trọng là phải phân biệt giữa cơ chế attention (chú ý) tổng quát và self-attention (tự chú ý).

  • Cơ chế Attention (Chú ý) thường liên quan đến hai chuỗi khác nhau. Ví dụ: trong dịch máy, cơ chế attention ánh xạ mối quan hệ giữa một câu nguồn và một câu đích.
  • Tự chú ý (Self-Attention) hoạt động trên một chuỗi duy nhất, cho phép mô hình cân nhắc tầm quan trọng của các từ hoặc yếu tố khác nhau trong cùng một chuỗi đó. Điều này giúp mô hình hiểu ngữ cảnh, cú pháp và các mối quan hệ, chẳng hạn như xác định rằng "nó" trong một câu đề cập đến một danh từ cụ thể được đề cập trước đó. Tự chú ý là khối nền tảng của kiến trúc Transformer.

Các Ứng dụng Thực tế

Cơ chế attention (chú ý) là không thể thiếu đối với nhiều ứng dụng AI hiện đại:

  • Dịch máy: Trong các dịch vụ như Google Dịch, cơ chế attention giúp mô hình tập trung vào các từ nguồn có liên quan khi tạo mỗi từ trong ngôn ngữ đích. Điều này cải thiện đáng kể chất lượng và độ trôi chảy của bản dịch, nắm bắt được những sắc thái mà trước đây đã bị mất.
  • Phát hiện đối tượng và thị giác máy tính: Các mô hình như Ultralytics YOLO11 có thể sử dụng cơ chế attention để tập trung tài nguyên tính toán vào các vùng quan trọng trong ảnh. Điều này giúp tăng cường độ chính xác phát hiện đồng thời duy trì hiệu quả cần thiết cho suy luận thời gian thực. Điều này rất quan trọng đối với các ứng dụng trong xe tự hànhrobotics.
  • Tóm tắt văn bản: Cơ chế Attention giúp xác định các câu hoặc cụm từ quan trọng trong một tài liệu dài để tạo ra các bản tóm tắt ngắn gọn, một tính năng được sử dụng bởi các công cụ như SummarizeBot.
  • Chú thích Ảnh: Như được mô tả trong nghiên cứu từ Đại học Stanford, các mô hình học cách tập trung vào các đối tượng hoặc vùng nổi bật trong một hình ảnh khi tạo chú thích văn bản mô tả.
  • Phân tích ảnh y tế: Cơ chế Attention có thể làm nổi bật các khu vực quan trọng trong ảnh chụp y tế (như khối u trong MRI) để chẩn đoán hoặc phân tích, hỗ trợ các bác sĩ радиologist. Bạn có thể khám phá các ví dụ trong bộ dữ liệu hình ảnh y tế công khai.

Các nền tảng như Ultralytics HUB cho phép người dùng huấn luyện, xác thực và triển khai các mô hình nâng cao, bao gồm cả những mô hình kết hợp cơ chế chú ý. Các mô hình như vậy thường tận dụng trọng số mô hình đã được huấn luyện trước có sẵn trên các nền tảng như Hugging Face và được xây dựng bằng các framework mạnh mẽ như PyTorchTensorFlow. Sự phát triển của cơ chế chú ý đã đẩy lùi các giới hạn của những gì có thể trong học máy, biến nó thành một nền tảng quan trọng của nghiên cứu và phát triển AI hiện đại tại các tổ chức như DeepMind.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay
Đã sao chép liên kết vào clipboard