Thuật ngữ

BERT (Biểu diễn mã hóa hai chiều từ máy biến áp)

Khám phá BERT, mô hình NLP mang tính cách mạng của Google. Tìm hiểu cách hiểu ngữ cảnh hai chiều của nó chuyển đổi các tác vụ AI như tìm kiếm và chatbot.

BERT, viết tắt của Bidirectional Encoder Representations from Transformers (Bidirectional Encoder Representations from Transformers), là một mô hình ngôn ngữ mang tính cách mạng do Google phát triển. Được giới thiệu trong một bài nghiên cứu năm 2018, BERT đã thay đổi lĩnh vực Xử lý Ngôn ngữ Tự nhiên (NLP) khi trở thành mô hình đầu tiên có thể hiểu ngữ cảnh của một từ dựa trên môi trường xung quanh từ cả bên trái và bên phải (theo cả hai hướng). Khả năng nắm bắt ngữ cảnh này cho phép BERT nắm bắt các sắc thái của ngôn ngữ con người hiệu quả hơn nhiều so với các mô hình trước đây, vốn thường xử lý văn bản theo một hướng duy nhất. Đây là một loại Mô hình Ngôn ngữ Lớn (LLM) và được coi là công nghệ nền tảng cho nhiều ứng dụng NLP hiện đại.

Bert hoạt động như thế nào

Điểm đổi mới cốt lõi của BERT nằm ở phương pháp huấn luyện song hướng, được xây dựng dựa trên kiến trúc Transformer . Không giống như các mô hình trước đây đọc văn bản tuần tự, cơ chế chú ý của BERT cho phép nó xem xét toàn bộ câu cùng một lúc. Để đạt được khả năng hiểu song hướng này trong quá trình tiền huấn luyện, BERT sử dụng hai chiến lược chính:

  1. Mô hình Ngôn ngữ Che giấu (MLM): Trong nhiệm vụ này, một số từ trong câu được ẩn ngẫu nhiên, hay còn gọi là "che giấu", và nhiệm vụ của mô hình là dự đoán các từ che giấu ban đầu dựa trên các từ không che giấu xung quanh. Điều này buộc mô hình phải học các mối quan hệ ngữ cảnh sâu sắc từ cả hai hướng.
  2. Dự đoán Câu Tiếp theo (NSP): Mô hình được cung cấp hai câu và phải dự đoán xem câu thứ hai có phải là câu theo sau câu đầu tiên trong văn bản gốc một cách logic hay không. Điều này giúp BERT hiểu được mối quan hệ giữa các câu, điều rất quan trọng cho các nhiệm vụ như trả lời câu hỏi và phân tích đoạn văn.

Sau quá trình tiền huấn luyện mở rộng này trên một khối văn bản khổng lồ, BERT có thể được điều chỉnh cho các tác vụ cụ thể thông qua một quy trình gọi là tinh chỉnh . Quá trình này bao gồm việc huấn luyện mô hình sâu hơn trên một tập dữ liệu nhỏ hơn, dành riêng cho tác vụ cụ thể, khiến nó trở thành một công cụ cực kỳ linh hoạt cho các nhà phát triển và nhà nghiên cứu. Nhiều mô hình BERT được đào tạo trước có thể truy cập được thông qua các nền tảng như Hugging Face .

Ứng dụng trong thế giới thực

Khả năng hiểu các sắc thái ngôn ngữ của BERT đã dẫn đến những cải tiến đáng kể trong nhiều ứng dụng Trí tuệ nhân tạo (AI) thực tế:

  • Công cụ tìm kiếm : Google Search nổi tiếng với việc tích hợp BERT để hiểu rõ hơn các truy vấn của người dùng, đặc biệt là các truy vấn mang tính hội thoại hoặc phức tạp, từ đó mang lại kết quả tìm kiếm phù hợp hơn. Ví dụ: BERT giúp nắm bắt ý định đằng sau các tìm kiếm như "bạn có thể lấy thuốc cho ai đó ở hiệu thuốc không?" bằng cách hiểu tầm quan trọng của các giới từ như "for" và "to".
  • Chatbot và Trợ lý ảo : BERT nâng cao khả năng của chatbot và trợ lý ảo trong việc hiểu chính xác hơn yêu cầu của người dùng, duy trì ngữ cảnh trong các cuộc trò chuyện và cung cấp phản hồi hữu ích hơn trong dịch vụ khách hàng, hệ thống đặt chỗ và truy xuất thông tin.
  • Phân tích tình cảm : Các doanh nghiệp sử dụng mô hình dựa trên BERT để phân tích đánh giá của khách hàng, bình luận trên mạng xã hội và phản hồi khảo sát để đánh giá dư luận và phản hồi về sản phẩm với độ chính xác cao hơn.
  • Tóm tắt văn bản và trả lời câu hỏi : BERT có thể được tinh chỉnh để tạo ra các hệ thống tự động tóm tắt tài liệu dài hoặc trả lời câu hỏi dựa trên một đoạn văn bản nhất định. Điều này được đánh giá chuẩn trên các tập dữ liệu như Bộ dữ liệu Trả lời Câu hỏi Stanford (SQuAD) .

Bert so với các mô hình khác

Điều quan trọng là phải phân biệt BERT với các mô hình AI khác:

Các nền tảng như Ultralytics HUB hỗ trợ việc đào tạotriển khai nhiều mô hình AI khác nhau, bao gồm cả những mô hình được xây dựng dựa trên nguyên lý Transformer. Việc phát triển BERT và các mô hình tương tự thường liên quan đến các khuôn khổ học máy tiêu chuẩn như PyTorchTensorFlow .

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, cộng tác và phát triển với những nhà đổi mới toàn cầu

Tham gia ngay
Liên kết đã được sao chép vào clipboard