Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

BERT (Bidirectional Encoder Representations from Transformers)

Explore BERT, the revolutionary bidirectional NLP model. Learn how it uses Transformer architecture for sentiment analysis, search, and [multimodal AI](https://www.ultralytics.com/glossary/multimodal-ai) workflows.

BERT (Bidirectional Encoder Representations from Transformers) là một kiến ​​trúc học sâu đột phá được thiết kế bởi các nhà nghiên cứu tại... Google Để giúp máy móc hiểu rõ hơn những sắc thái tinh tế của ngôn ngữ con người. Được giới thiệu vào năm 2018, BERT đã cách mạng hóa lĩnh vực Xử lý Ngôn ngữ Tự nhiên (NLP) bằng cách giới thiệu phương pháp huấn luyện hai chiều. Không giống như các mô hình trước đây đọc văn bản tuần tự từ trái sang phải hoặc từ phải sang trái, BERT phân tích ngữ cảnh của một từ bằng cách xem xét đồng thời các từ đứng trước và sau nó. Cách tiếp cận này cho phép mô hình nắm bắt được những ý nghĩa tinh tế, thành ngữ và từ đồng âm (từ có nhiều nghĩa) hiệu quả hơn nhiều so với các thế hệ trước.

BERT hoạt động như thế nào

Về bản chất, BERT dựa trên kiến ​​trúc Transformer , cụ thể là cơ chế mã hóa. Tính chất "hai chiều" đạt được thông qua kỹ thuật huấn luyện gọi là Mô hình Ngôn ngữ Che mặt nạ (Masked Language Modeling - MLM). Trong giai đoạn tiền huấn luyện, khoảng 15% số từ trong một câu được che giấu ngẫu nhiên, và mô hình cố gắng dự đoán các từ bị thiếu dựa trên ngữ cảnh xung quanh. Điều này buộc mô hình phải học các biểu diễn hai chiều sâu.

Ngoài ra, BERT sử dụng Dự đoán Câu tiếp theo (Next Sentence Prediction - NSP) để hiểu mối quan hệ giữa các câu. Trong nhiệm vụ này, mô hình được cung cấp các cặp câu và phải xác định xem câu thứ hai có logic theo sau câu thứ nhất hay không. Khả năng này rất quan trọng đối với các nhiệm vụ đòi hỏi sự hiểu biết về diễn ngôn, chẳng hạn như trả lời câu hỏi và tóm tắt văn bản.

Các Ứng dụng Thực tế

Tính linh hoạt của BERT đã khiến nó trở thành một thành phần tiêu chuẩn trong nhiều hệ thống trí tuệ nhân tạo hiện đại. Dưới đây là hai ví dụ cụ thể về ứng dụng của nó:

  1. Tối ưu hóa công cụ tìm kiếm: Google BERT đã tích hợp vào thuật toán tìm kiếm của mình để hiểu rõ hơn các truy vấn phức tạp. Ví dụ, trong truy vấn "2019 brazil traveler to usa need a visa," từ "to" rất quan trọng. Các mô hình truyền thống thường coi "to" là từ dừng (các từ thông dụng bị lọc bỏ), bỏ sót mối quan hệ về hướng. BERT hiểu rằng người dùng là người Brazil đang đi du lịch đến Mỹ, chứ không phải ngược lại, từ đó cung cấp kết quả tìm kiếm có độ chính xác cao.
  2. Phân tích cảm xúc trong phản hồi của khách hàng: Các công ty sử dụng BERT để tự động phân tích hàng ngàn đánh giá của khách hàng hoặc phiếu yêu cầu hỗ trợ. Vì BERT hiểu ngữ cảnh, nó có thể phân biệt giữa "Máy hút bụi này hút tệ" (cảm xúc tiêu cực) và "Máy hút bụi này hút sạch mọi bụi bẩn" (cảm xúc tích cực). Phân tích cảm xúc chính xác này giúp các doanh nghiệp ưu tiên xử lý các vấn đề hỗ trợ và track Sức khỏe thương hiệu được thể hiện chính xác.

So sánh với các khái niệm liên quan

Việc phân biệt BERT với các kiến ​​trúc nổi bật khác sẽ giúp hiểu rõ hơn về vị trí đặc thù của nó.

  • BERT so với GPT (Generative Pre-trained Transformer) : Mặc dù cả hai đều sử dụng kiến ​​trúc Transformer, nhưng mục tiêu của chúng khác nhau. BERT sử dụng ngăn xếp Encoder và được tối ưu hóa cho các nhiệm vụ hiểu và phân biệt (ví dụ: phân loại, trích xuất thực thể). Ngược lại, GPT sử dụng ngăn xếp Decoder và được thiết kế cho việc tạo văn bản , dự đoán từ tiếp theo trong một chuỗi để viết luận hoặc lập trình.
  • BERT so với YOLO26 : Hai mô hình này hoạt động trong các lĩnh vực khác nhau. BERT xử lý dữ liệu văn bản tuần tự cho các nhiệm vụ ngôn ngữ học. YOLO26 là một mô hình thị giác hiện đại xử lý lưới pixel để phát hiện đối tượng theo thời gian thực. Tuy nhiên, các hệ thống đa phương thức hiện đại thường kết hợp chúng; ví dụ, một YOLO mô hình có thể detect các đối tượng trong một hình ảnh, và một mô hình dựa trên BERT sau đó có thể trả lời các câu hỏi về mối quan hệ giữa chúng.

Ví dụ thực hiện: Mã hóa token

Để sử dụng BERT, văn bản thô phải được chuyển đổi thành các mã số. Mô hình sử dụng một từ vựng cụ thể (như WordPiece) để phân tích từ. Mặc dù BERT là một mô hình xử lý văn bản, nhưng các khái niệm tiền xử lý tương tự cũng được áp dụng trong thị giác máy tính, nơi hình ảnh được chia thành các mảng nhỏ.

Sau đây Python Đoạn mã này minh họa cách sử dụng transformers Thư viện này dùng để phân tách câu thành các từ ngữ (tokenize) cho quá trình xử lý BERT. Lưu ý rằng trong khi Ultralytics Tập trung vào tầm nhìn, hiểu biết về mã hóa token là chìa khóa. Trí tuệ nhân tạo đa phương thức quy trình làm việc.

from transformers import BertTokenizer

# Initialize the tokenizer with the pre-trained 'bert-base-uncased' vocabulary
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

# Tokenize a sample sentence relevant to AI
text = "Ultralytics simplifies computer vision."

# Convert text to input IDs (numerical representations)
encoded_input = tokenizer(text, return_tensors="pt")

# Display the resulting token IDs
print(f"Token IDs: {encoded_input['input_ids']}")

Tầm quan trọng trong lĩnh vực trí tuệ nhân tạo

Việc giới thiệu BERT đánh dấu " ImageNet Đây là "khoảnh khắc" quan trọng đối với xử lý ngôn ngữ tự nhiên (NLP), chứng minh rằng học chuyển giao — huấn luyện trước một mô hình trên một tập dữ liệu khổng lồ và sau đó tinh chỉnh nó cho một nhiệm vụ cụ thể — rất hiệu quả đối với xử lý văn bản. Điều này đã giảm bớt nhu cầu về các kiến ​​trúc chuyên biệt cho từng nhiệm vụ và các tập dữ liệu được gắn nhãn lớn cho mỗi vấn đề mới.

Hiện nay, các biến thể của BERT, chẳng hạn như RoBERTa và DistilBERT, tiếp tục thúc đẩy hiệu quả trong các ứng dụng AI biên . Các nhà phát triển muốn xây dựng các giải pháp AI toàn diện thường tích hợp các mô hình ngôn ngữ này cùng với các công cụ thị giác có sẵn trên Nền tảng Ultralytics để tạo ra các hệ thống có thể vừa nhìn thấy vừa hiểu thế giới.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay