Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay

Khám phá các bộ dữ liệu computer vision tốt nhất năm 2025

Abirami Vina

5 phút đọc

21 tháng 2, 2025

Hãy cùng chúng tôi xem xét kỹ hơn các bộ dữ liệu computer vision tốt nhất năm 2025. Tìm hiểu cách các bộ dữ liệu đa dạng và chất lượng cao thúc đẩy các giải pháp Vision AI thông minh hơn.

Bạn có biết rằng dữ liệu đóng vai trò quan trọng trong hầu hết mọi việc bạn làm hàng ngày không? Xem video, chụp ảnh hoặc kiểm tra Google Bản đồ góp phần vào luồng thông tin liên tục được thu thập bởi hơn 75 tỷ thiết bị được kết nối. Những dữ liệu này tạo thành nền tảng của trí tuệ nhân tạo (AI). Trên thực tế, các mô hình thị giác máy tính tiên tiến như Ultralytics YOLO11 dựa vào dữ liệu trực quan để xác định các mẫu, diễn giải hình ảnh và hiểu rõ thế giới xung quanh chúng ta.

Điều thú vị là giá trị của dữ liệu không chỉ nằm ở số lượng. Điều quan trọng hơn là nó được tổ chức và chuẩn bị tốt như thế nào. Nếu một bộ dữ liệu lộn xộn hoặc không đầy đủ, nó có thể dẫn đến sai sót. Tuy nhiên, khi các bộ dữ liệu sạch và đa dạng, chúng giúp các mô hình computer vision hoạt động tốt hơn, cho dù đó là nhận dạng các đối tượng trong đám đông hay phân tích hình ảnh phức tạp. Các bộ dữ liệu chất lượng cao tạo ra sự khác biệt.

Trong bài viết này, chúng ta sẽ khám phá các bộ dữ liệu computer vision tốt nhất năm 2025 và xem chúng đóng góp như thế nào vào việc xây dựng các mô hình computer vision chính xác và hiệu quả hơn. Hãy bắt đầu nào!

Bộ dữ liệu thị giác máy tính là gì?

Bộ dữ liệu thị giác máy tính là một tập hợp các hình ảnh hoặc video giúp các hệ thống thị giác máy tính học cách hiểu và nhận dạng thông tin trực quan. Các bộ dữ liệu này đi kèm với nhãn hoặc chú thích giúp các mô hình nhận ra các đối tượng, con người, cảnh vật và các mẫu trong dữ liệu.

Chúng có thể được sử dụng để huấn luyện các mô hình thị giác máy tính, giúp chúng cải thiện các tác vụ như nhận dạng khuôn mặt, phát hiện đối tượng hoặc phân tích cảnh. Bộ dữ liệu càng tốt - được tổ chức tốt, đa dạng và chính xác - thì mô hình Vision AI hoạt động càng tốt, dẫn đến công nghệ thông minh hơn và hữu ích hơn trong cuộc sống hàng ngày.

Cách xây dựng bộ dữ liệu thị giác máy tính

Xây dựng một bộ dữ liệu thị giác máy tính giống như chuẩn bị ghi chú học tập để dạy ai đó cách nhìn và hiểu thế giới. Tất cả bắt đầu bằng việc thu thập hình ảnh và video phù hợp với ứng dụng cụ thể mà bạn đang phát triển. 

Một bộ dữ liệu lý tưởng bao gồm các ví dụ đa dạng về các đối tượng được quan tâm, được chụp từ các góc độ khác nhau, trong các điều kiện ánh sáng khác nhau và trên nhiều nền và môi trường khác nhau. Sự đa dạng này đảm bảo rằng mô hình thị giác máy tính học cách nhận dạng các mẫu một cách chính xác và hoạt động đáng tin cậy trong các tình huống thực tế.

__wf_reserved_inherit
Hình 1. Xây dựng bộ dữ liệu thị giác hoàn hảo. Hình ảnh của tác giả.

Sau khi thu thập các hình ảnh và video liên quan, bước tiếp theo là gán nhãn dữ liệu. Quá trình này bao gồm việc thêm các thẻ, chú thích hoặc mô tả vào dữ liệu để AI có thể hiểu nội dung của mỗi hình ảnh hoặc video. 

Nhãn có thể bao gồm tên đối tượng, vị trí, ranh giới hoặc các chi tiết liên quan khác giúp huấn luyện mô hình nhận dạng và diễn giải thông tin trực quan một cách chính xác. Gán nhãn dữ liệu biến một tập hợp hình ảnh đơn giản thành một bộ dữ liệu có cấu trúc có thể được sử dụng để huấn luyện một mô hình thị giác máy tính.

Huấn luyện mô hình đòi hỏi dữ liệu chất lượng cao

Bạn có thể tự hỏi điều gì làm cho một bộ dữ liệu có chất lượng cao. Có rất nhiều yếu tố liên quan, như gán nhãn chính xác, tính đa dạng và tính nhất quán. Ví dụ: nếu nhiều người chú thích đang gán nhãn một bộ dữ liệu phát hiện đối tượng để xác định tai mèo, một người có thể gán nhãn chúng là một phần của đầu trong khi người khác gán nhãn chúng riêng biệt là tai. Sự không nhất quán này có thể gây nhầm lẫn cho mô hình và ảnh hưởng đến khả năng học hỏi chính xác của nó.

Dưới đây là tổng quan nhanh về các phẩm chất của một bộ dữ liệu thị giác máy tính lý tưởng:

  • Nhãn rõ ràng: Mỗi hình ảnh được chú thích chính xác với các nhãn nhất quán và chính xác.
  • Dữ liệu đa dạng: Bộ dữ liệu bao gồm các đối tượng, hình nền, điều kiện ánh sáng và góc độ khác nhau để giúp mô hình hoạt động tốt trong nhiều tình huống.
  • Hình ảnh độ phân giải cao: Hình ảnh sắc nét, chi tiết giúp mô hình dễ dàng học và nhận dạng các tính năng.

Ultralytics hỗ trợ nhiều tập dữ liệu khác nhau

Ultralytics YOLO các mô hình, như YOLO11 , được xây dựng để làm việc với các tập dữ liệu trong một YOLO định dạng tệp. Mặc dù bạn có thể dễ dàng chuyển đổi dữ liệu của mình sang định dạng này, chúng tôi cũng cung cấp tùy chọn đơn giản cho những ai muốn bắt đầu thử nghiệm ngay lập tức. 

Gói Python Ultralytics hỗ trợ nhiều tập dữ liệu thị giác máy tính, cho phép bạn tìm hiểu sâu về các dự án bằng các tác vụ như phát hiện đối tượng, phân đoạn thể hiện hoặc ước tính tư thế mà không cần bất kỳ thiết lập bổ sung nào.  

Người dùng có thể dễ dàng truy cập vào các tập dữ liệu sẵn sàng sử dụng như COCO , DOTA-v2.0, Open Images V7 và ImageNet bằng cách chỉ định tên tập dữ liệu làm một trong các tham số trong hàm huấn luyện. Khi bạn thực hiện việc này, tập dữ liệu sẽ tự động được tải xuống và cấu hình sẵn, để bạn có thể tập trung vào việc xây dựng và tinh chỉnh mô hình của mình.

Top 5 bộ dữ liệu thị giác máy tính năm 2025

Những tiến bộ trong Trí tuệ nhân tạo thị giác (Vision AI) dựa trên các tập dữ liệu đa dạng, quy mô lớn, thúc đẩy sự đổi mới và tạo ra những đột phá. Hãy cùng xem xét một số tập dữ liệu quan trọng nhất, được hỗ trợ bởi Ultralytics , đang ảnh hưởng đến các mô hình thị giác máy tính.

ImageNet tập dữ liệu 

ImageNet , được Fei-Fei Li và nhóm của bà tại Đại học Princeton tạo ra vào năm 2007 và được giới thiệu vào năm 2009, là một tập dữ liệu lớn với hơn 14 triệu hình ảnh được gắn nhãn. Nó được sử dụng rộng rãi để huấn luyện các hệ thống nhận dạng và phân loại các đối tượng khác nhau. Thiết kế có cấu trúc của nó đặc biệt hữu ích cho việc dạy các mô hình nhận dạng và phân loại. classify hình ảnh chính xác. Mặc dù được ghi chép đầy đủ, nhưng nó chủ yếu tập trung vào phân loại hình ảnh và thiếu chú thích chi tiết cho các tác vụ như phát hiện đối tượng. 

Dưới đây là một cái nhìn vào một số ImageNet Điểm mạnh chính của:

  • Sự đa dạng: Với hình ảnh trải dài trên 20.000 danh mục, ImageNet cung cấp một tập dữ liệu rộng lớn và đa dạng giúp nâng cao khả năng đào tạo và khái quát hóa mô hình.
  • Tổ chức có cấu trúc: Hình ảnh được phân loại tỉ mỉ bằng hệ thống phân cấp WordNet, tạo điều kiện truy xuất dữ liệu hiệu quả và huấn luyện mô hình một cách có hệ thống.
  • Tài liệu toàn diện : Nghiên cứu sâu rộng và nhiều năm nghiên cứu tạo nên ImageNet dễ tiếp cận với cả người mới bắt đầu và chuyên gia, cung cấp những hiểu biết và hướng dẫn có giá trị cho các dự án thị giác máy tính .

Tuy nhiên, giống như bất kỳ tập dữ liệu nào, nó cũng có những hạn chế nhất định. Dưới đây là một số thách thức cần xem xét:

  • Yêu cầu về tính toán: Kích thước lớn của nó có thể gây ra những thách thức cho các nhóm nhỏ với nguồn lực tính toán hạn chế.
  • Thiếu dữ liệu thời gian: Vì nó chỉ chứa hình ảnh tĩnh, nó có thể không đáp ứng được nhu cầu của các ứng dụng yêu cầu video hoặc dữ liệu dựa trên thời gian.
  • Hình ảnh lỗi thời: Một số hình ảnh trong tập dữ liệu đã cũ và có thể không phản ánh các đối tượng, kiểu dáng hoặc môi trường hiện tại, có khả năng làm giảm mức độ liên quan đối với các ứng dụng hiện đại.

Tập dữ liệu DOTA-v2.0

Tập dữ liệu DOTA-v2.0, trong đó DOTA là viết tắt của Dataset for Object Detection in Aerial Images (Tập dữ liệu để phát hiện đối tượng trong ảnh chụp từ trên không), là một bộ sưu tập lớn các ảnh chụp từ trên không được tạo đặc biệt để phát hiện đối tượng bằng khung giới hạn xoay (OBB). Trong phát hiện OBB, các khung giới hạn xoay được sử dụng để căn chỉnh chính xác hơn với hướng thực tế của các đối tượng trong ảnh. Phương pháp này đặc biệt hiệu quả đối với ảnh chụp từ trên không, nơi các đối tượng thường xuất hiện ở nhiều góc độ khác nhau, dẫn đến định vị chính xác hơn và phát hiện tổng thể tốt hơn.

Tập dữ liệu này bao gồm hơn 11.000 hình ảnh và hơn 1,7 triệu khung giới hạn xoay trên 18 loại đối tượng. Các hình ảnh có kích thước từ 800×800 đến 20.000×20.000 pixel và bao gồm các đối tượng như máy bay, tàu thuyền và tòa nhà. 

__wf_reserved_inherit
Hình 2. Ví dụ về hình ảnh và chú thích từ tập dữ liệu DOTA-v2.0. Hình ảnh của tác giả.

Do các chú thích chi tiết của nó, DOTA-v2.0 đã trở thành một lựa chọn phổ biến cho các dự án viễn thám và giám sát trên không. Dưới đây là một số tính năng chính của DOTA-v2.0:

  • Danh mục đối tượng đa dạng: Nó bao gồm nhiều loại đối tượng khác nhau, chẳng hạn như xe cộ, bến cảng và bể chứa, giúp mô hình tiếp xúc với nhiều đối tượng thực tế khác nhau.
  • Chú thích chất lượng cao: Các chuyên gia chú thích đã cung cấp các khung giới hạn xoay được định hướng chính xác, hiển thị rõ ràng hình dạng và hướng của đối tượng.
  • Hình ảnh đa tỷ lệ: Bộ dữ liệu bao gồm các hình ảnh có kích thước khác nhau, giúp các mô hình học cách detect các vật thể ở cả quy mô nhỏ và lớn.

Mặc dù DOTA-v2 có nhiều điểm mạnh, nhưng đây là một số hạn chế mà người dùng nên ghi nhớ:

  • Các bước tải xuống bổ sung: Do cách tập dữ liệu DOTA được duy trì, DOTA-v2.0 yêu cầu một bước thiết lập bổ sung. Trước tiên, bạn cần tải xuống hình ảnh DOTA-v1.0, sau đó thêm hình ảnh bổ sung và chú thích cập nhật cho DOTA-v2.0 để hoàn thành tập dữ liệu.
  • Chú thích phức tạp: Các khung giới hạn xoay có thể đòi hỏi nỗ lực bổ sung để xử lý trong quá trình huấn luyện mô hình.
  • Phạm vi hạn chế: DOTA-v2 được thiết kế cho hình ảnh trên không, điều này làm cho nó ít hữu ích hơn cho các tác vụ phát hiện đối tượng tổng quát bên ngoài miền này.

Roboflow 100 tập dữ liệu 

Bộ dữ liệu Roboflow 100 (RF100) được tạo bởi Roboflow với sự hỗ trợ từ Intel Nó có thể được sử dụng để kiểm tra và đánh giá hiệu quả hoạt động của các mô hình phát hiện đối tượng. Bộ dữ liệu đánh giá này bao gồm 100 bộ dữ liệu khác nhau được chọn lọc từ hơn 90.000 bộ dữ liệu công khai. Bộ dữ liệu này có hơn 224.000 hình ảnh và 800 lớp đối tượng từ các lĩnh vực như chăm sóc sức khỏe, góc nhìn từ trên cao và trò chơi điện tử. 

Dưới đây là một số ưu điểm chính của việc sử dụng RF100:

  • Phạm vi bao phủ rộng: Nó bao gồm các tập dữ liệu từ bảy lĩnh vực, chẳng hạn như hình ảnh y tế, ảnh chụp từ trên không và thăm dò dưới nước.
  • Khuyến khích cải thiện mô hình: Sự thay đổi và các thách thức dành riêng cho từng lĩnh vực trong RF100 cho thấy những thiếu sót trong các mô hình hiện tại, thúc đẩy nghiên cứu hướng tới các giải pháp phát hiện đối tượng mạnh mẽ và có khả năng thích ứng hơn.
  • Định dạng hình ảnh nhất quán: Tất cả hình ảnh được thay đổi kích thước thành 640x640 pixel. Điều này giúp người dùng huấn luyện các mô hình mà không cần điều chỉnh kích thước hình ảnh.

Mặc dù có những điểm mạnh, RF100 cũng đi kèm với một số hạn chế nhất định cần lưu ý:

  • Hạn chế về tác vụ: RF100 được thiết kế cho object detection, vì vậy nó không phù hợp với các tác vụ như segmentation hoặc classification.
  • Tập trung vào benchmark: RF100 chủ yếu được thiết kế như một công cụ benchmark hơn là để training các model cho các ứng dụng thực tế, vì vậy kết quả của nó có thể không hoàn toàn chuyển đổi được vào các tình huống triển khai thực tế.
  • Tính biến đổi của annotation: Vì RF100 tổng hợp các tập dữ liệu từ cộng đồng, có thể có sự không nhất quán về chất lượng annotation và cách thực hành labeling, điều này có thể ảnh hưởng đến việc đánh giá và tinh chỉnh model.

COCO (Các đối tượng chung trong ngữ cảnh) tập dữ liệu

Bộ dữ liệu COCO là một trong những bộ dữ liệu thị giác máy tính được sử dụng rộng rãi nhất, cung cấp hơn 330.000 hình ảnh với chú thích chi tiết. Bộ dữ liệu này được thiết kế để phát hiện đối tượng, phân đoạn và ghi chú thích hình ảnh, khiến nó trở thành một nguồn tài nguyên giá trị cho nhiều dự án. Các nhãn chi tiết của bộ dữ liệu, bao gồm hộp giới hạn và mặt nạ phân đoạn, giúp các hệ thống học cách phân tích hình ảnh một cách chính xác.

Bộ dữ liệu này được biết đến với tính linh hoạt và hữu ích cho nhiều tác vụ khác nhau, từ các dự án đơn giản đến phức tạp. Nó đã trở thành một tiêu chuẩn trong lĩnh vực Vision AI, thường được sử dụng trong các thử thách và cuộc thi để đánh giá hiệu suất model.

Một số điểm mạnh của nó bao gồm:

  • Dữ liệu đa dạng và thực tế: Bộ dữ liệu bao gồm hình ảnh từ các tình huống thực tế với nhiều đối tượng, sự che khuất và các điều kiện ánh sáng khác nhau.
  • Sự áp dụng mạnh mẽ của cộng đồng và nghiên cứu : Được sử dụng trong các cuộc thi học máy và nghiên cứu lớn, COCO bộ dữ liệu có tài liệu mở rộng, mô hình được đào tạo trước và sự hỗ trợ tích cực của cộng đồng.
  • Chú thích phong phú và chi tiết : COCO bộ dữ liệu cung cấp các chú thích rất chi tiết, bao gồm phân đoạn đối tượng, điểm chính và chú thích, rất lý tưởng cho các dự án đòi hỏi sự hiểu biết trực quan chính xác.

Dưới đây là một vài yếu tố hạn chế cần lưu ý:

  • Yêu cầu tính toán cao : Do kích thước và độ phức tạp của nó, các mô hình đào tạo trên COCO có thể yêu cầu nguồn tài nguyên tính toán đáng kể, gây khó khăn cho các nhóm có phần cứng hạn chế.
  • Mất cân bằng dữ liệu: Một số category đối tượng có số lượng hình ảnh nhiều hơn đáng kể so với những category khác, điều này có thể dẫn đến sự thiên vị trong quá trình training model.
  • Cấu trúc annotation phức tạp: Các annotation chi tiết của bộ dữ liệu, mặc dù có giá trị, có thể gây khó khăn cho người mới bắt đầu hoặc các nhóm nhỏ hơn thiếu kinh nghiệm làm việc với các bộ dữ liệu Vision AI có cấu trúc.

Bộ dữ liệu Open Images V7

Open Images V7 là một bộ dữ liệu nguồn mở khổng lồ được quản lý bởi Google , với hơn 9 triệu hình ảnh kèm chú thích cho 600 danh mục đối tượng. Nó bao gồm nhiều loại chú thích khác nhau và lý tưởng để xử lý các tác vụ thị giác máy tính phức tạp. Quy mô và độ sâu của nó cung cấp một nguồn tài nguyên toàn diện để đào tạo và kiểm tra các mô hình thị giác máy tính.

__wf_reserved_inherit
Hình 3. Cái nhìn sơ lược về bộ dữ liệu Open Images V7. Hình ảnh của tác giả.

Ngoài ra, sự phổ biến của bộ dữ liệu Open Images V7 trong nghiên cứu cung cấp nhiều tài nguyên và ví dụ để người dùng học hỏi. Tuy nhiên, kích thước khổng lồ của nó có thể làm cho việc tải xuống và xử lý tốn thời gian, đặc biệt đối với các nhóm nhỏ hơn. Một vấn đề khác là một số annotation có thể không nhất quán, đòi hỏi nỗ lực thêm để làm sạch dữ liệu và việc tích hợp không phải lúc nào cũng liền mạch, có nghĩa là có thể cần chuẩn bị thêm. 

Chọn bộ dữ liệu phù hợp 

Việc chọn đúng bộ dữ liệu là một phần quan trọng để thiết lập dự án computer vision của bạn để thành công. Sự lựa chọn tốt nhất phụ thuộc vào tác vụ cụ thể của bạn - việc tìm một sự phù hợp tốt sẽ giúp model của bạn học được các kỹ năng phù hợp. Nó cũng sẽ tích hợp dễ dàng với các công cụ của bạn, để bạn có thể tập trung nhiều hơn vào việc xây dựng model của mình và ít hơn vào việc khắc phục sự cố.

__wf_reserved_inherit
Hình 4. Các yếu tố để chọn bộ dữ liệu phù hợp. Hình ảnh của tác giả.

Những điều cần nhớ

Các bộ dữ liệu chất lượng cao là xương sống của bất kỳ model computer vision nào, giúp các hệ thống học cách diễn giải hình ảnh một cách chính xác. Các bộ dữ liệu đa dạng và được annotation tốt đặc biệt quan trọng, vì chúng cho phép các model hoạt động đáng tin cậy trong các tình huống thực tế và giảm các lỗi do dữ liệu hạn chế hoặc chất lượng kém.

Ultralytics đơn giản hóa quy trình truy cập và làm việc với các tập dữ liệu thị giác máy tính, giúp bạn dễ dàng tìm thấy dữ liệu phù hợp cho dự án của mình. Việc chọn đúng tập dữ liệu là một bước quan trọng trong việc xây dựng một mô hình hiệu suất cao, mang lại kết quả chính xác và có tác động hơn.

Tham gia cộng đồng của chúng tôi và khám phá kho lưu trữ GitHub của chúng tôi để tìm hiểu thêm về AI. Khám phá những tiến bộ như computer vision cho lĩnh vực chăm sóc sức khỏeAI trong xe tự lái trên các trang giải pháp của chúng tôi. Xem các tùy chọn cấp phép của chúng tôi và thực hiện bước đầu tiên để bắt đầu với computer vision ngay hôm nay!

Hãy cùng nhau xây dựng tương lai
của AI!

Bắt đầu hành trình của bạn với tương lai của học máy

Bắt đầu miễn phí