Bằng cách nhấp vào “Chấp nhận tất cả Cookie”, bạn đồng ý với việc lưu trữ cookie trên thiết bị của mình để tăng cường khả năng điều hướng trang web, phân tích việc sử dụng trang web và hỗ trợ các nỗ lực tiếp thị của chúng tôi. Thêm thông tin
Cài đặt Cookie
Bằng cách nhấp vào “Chấp nhận tất cả Cookie”, bạn đồng ý với việc lưu trữ cookie trên thiết bị của mình để tăng cường khả năng điều hướng trang web, phân tích việc sử dụng trang web và hỗ trợ các nỗ lực tiếp thị của chúng tôi. Thêm thông tin
Tìm hiểu cách xây dựng các ứng dụng máy bay không người lái hỗ trợ AI với Ultralytics YOLO11 , cho phép phát hiện đối tượng theo thời gian thực và thực hiện nhiệm vụ thị giác máy tính dựa trên máy bay không người lái.
Mua sắm tại cửa hàng và mua sắm trực tuyến có vẻ giống nhau, nhưng chúng dựa vào các hoạt động logistics khác nhau. Các cửa hàng cần bổ sung hàng hóa lên kệ, trong khi các đơn đặt hàng trực tuyến phụ thuộc vào việc giao hàng tận nhà. Nhờ những tiến bộ công nghệ, cả hai trải nghiệm mua sắm đang được định hình lại song song.
Ví dụ: một sự thay đổi lớn đang diễn ra trong lĩnh vực giao hàng. Máy bay không người lái (drone) hỗ trợ bởi AI đang thay đổi cách sản phẩm đến nhà chúng ta. Những máy bay không người lái thông minh này dự kiến sẽ xử lý khoảng 808 triệu lượt giao hàng trong thập kỷ tới, biến bầu trời thành tuyến đường giao hàng mới nhất cho thương mại hàng ngày.
Máy bay không người lái giao hàng sử dụng trí tuệ nhân tạo (AI) và thị giác máy tính , một lĩnh vực của AI được sử dụng để phân tích dữ liệu hình ảnh, điều hướng và di chuyển tránh chướng ngại vật. Các mô hình thị giác máy tính như Ultralytics YOLO11 có thể giúp máy bay không người lái detect Và track các đối tượng theo thời gian thực, cho phép chúng hiểu rõ hơn và tương tác tốt hơn với môi trường xung quanh.
Hình 1. Một máy bay không người lái giao hàng đang mang một kiện hàng đến đích.
Các công ty như Meituan và DJI đã tích hợp thị giác máy tính vào máy bay không người lái của họ. Trên thực tế, việc áp dụng nhanh chóng máy bay không người lái trong nhiều ngành công nghiệp khác nhau đã thiết lập thị trường máy bay không người lái AI để tăng vọt lên 206,9 tỷ đô la vào năm 2031.
Trong bài viết này, chúng ta sẽ xem xét kỹ hơn cách các mô hình thị giác máy tính như Ultralytics YOLO11 có thể được sử dụng trong các ứng dụng dựa trên máy bay không người lái như giao hàng bằng máy bay không người lái. Chúng tôi sẽ xem xét một ví dụ minh họa cách các công nghệ này có thể được phát triển và thử nghiệm trước khi áp dụng vào thực tế.
Sử dụng Ultralytics YOLO11 trên máy bay không người lái để detect nhà cửa
Một phần quan trọng của máy bay không người lái giao hàng là khả năng của chúng detect nhà khi chúng di chuyển. Để tái tạo khả năng này và hiểu cách thức hoạt động của nó, chúng tôi sẽ huấn luyện một mô hình thị giác máy tính có khả năng nhận dạng nhà trong cảnh quay do máy bay không người lái ghi lại. Chúng tôi sẽ huấn luyện tùy chỉnh YOLO11 đối với điều này, bao gồm việc tinh chỉnh một YOLO11 mô hình để nhận biết và detect ngôi nhà bằng cách sử dụng các ví dụ có ghi chú.
Để làm được điều đó, chúng ta sẽ cần dữ liệu video chất lượng cao từ máy bay không người lái. Điều thú vị là ngay cả khi không có quyền truy cập vào máy bay không người lái thực tế, chúng ta vẫn có thể tạo ra các cảnh quay trên không chân thực. Hãy cùng xem cách thực hiện.
Tạo một cảnh quay bằng máy bay không người lái nhân tạo bằng cách sử dụng Google Studio Trái Đất
Google Earth Studio là một công cụ hoạt hình dựa trên web mà người dùng có thể sử dụng để tạo nội dung tĩnh và hoạt hình bằng cách sử dụng Google Hình ảnh vệ tinh và hình ảnh 3D của Trái Đất. Chúng ta có thể sử dụng nó để tạo ra cảnh quay trên không chân thực.
Bước đầu tiên là mở Google Earth Studio và tạo một dự án như minh họa bên dưới.
Bạn sẽ cần một Google tài khoản để đăng nhập.
Hình 2. Tạo một dự án trên Google Studio Trái Đất.
Sau khi đăng nhập, bạn có thể chọn địa điểm cho video drone nhân tạo của mình. Sử dụng thanh tìm kiếm ở góc trên bên trái của trang, bạn có thể tìm kiếm địa điểm. Trong hướng dẫn này, chúng ta sẽ chọn Canada. Ngoài ra, vì chúng ta sẽ huấn luyện một mô hình để detect nhà cửa, video quay bằng máy bay không người lái của chúng tôi sẽ có góc nhìn từ trên cao của những ngôi nhà.
Hình 3. Chọn vị trí bằng cách sử dụng Google Studio Trái Đất.
Tiếp theo, chúng ta có thể đặt khung thời gian đầu tiên và cuối cùng để ghi lại chuyển động của cảnh quay drone nhân tạo. Sau khi bạn đã chọn vị trí bắt đầu cho cảnh quay drone, hãy đặt khung hình đầu tiên bằng các hình thoi màu xanh lam, như hình bên dưới.
Hình 4. Đặt khung hình đầu tiên bằng cách sử dụng các hình thoi màu xanh lam.
Tiếp theo, chúng ta có thể chọn khung hình cuối cùng để xác định điểm đến của drone. Điều này sẽ giúp chúng ta tạo hiệu ứng chuyển động cho cảnh quay từ drone. Để thực hiện việc này, hãy trượt thanh (được đánh dấu bên dưới) sang phải đến một thời điểm cụ thể để tạo hiệu ứng chuyển động cho cảnh quay drone. Một lần nữa, hãy sử dụng các hình thoi màu xanh lam để đặt điểm cuối cùng.
Hình 5. Đặt khung hình cuối cùng bằng cách di chuyển thanh trượt.
Cuối cùng, bạn có thể lưu dự án này và kết xuất nó bằng cách nhấp vào nút “Kết xuất” màu đỏ ở góc trên bên phải của trang. Thao tác này sẽ cung cấp cho bạn đầu ra video cuối cùng của cảnh quay bằng máy bay không người lái, tạo thành công cảnh quay video nhân tạo từ máy bay không người lái.
Hình 6. Kết xuất video đầu ra cuối cùng.
Cách gắn nhãn dữ liệu máy bay không người lái
Bây giờ chúng ta đã tạo cảnh quay video drone nhân tạo, bước tiếp theo là gắn nhãn hoặc chú thích các ngôi nhà trong đó. Chúng ta cũng cần tách các khung hình riêng lẻ của video.
Để bắt đầu, chúng ta sẽ cài đặt LabelImg. LabelImg là một công cụ gắn nhãn hình ảnh mã nguồn mở. Bạn có thể cài đặt nó trực tiếp từ terminal bằng trình cài đặt gói pip bằng cách chạy lệnh sau: “pip install labelImg”.
Sau khi cài đặt, bạn có thể chạy công cụ bằng lệnh ‘labelImg’ trên terminal hoặc command prompt. Thao tác này sẽ đưa bạn đến trang hiển thị bên dưới.
Hình 7. Giao diện công cụ LabelImg.
Trong khi đó, chúng ta có thể sử dụng trình chuyển đổi video thành hình ảnh trực tuyến hoặc một công cụ có tên là FFmpeg để chia video thành các khung hình. FFmpeg là một tập hợp các thư viện và công cụ để xử lý nội dung đa phương tiện như âm thanh, video, phụ đề và siêu dữ liệu liên quan.
Bạn có thể sử dụng lệnh terminal sau để tách từng khung hình của video quay bằng máy bay không người lái:
Sau khi tách các khung hình từ cảnh quay bằng máy bay không người lái, chúng ta có thể bắt đầu gắn nhãn cho các vật thể (nhà cửa) trong đó. Bằng cách điều hướng đến thư mục hình ảnh thông qua công cụ LabelImg, chúng ta có thể gắn nhãn cho các vật thể trong mỗi hình ảnh. Hãy đảm bảo lưu và xác minh từng hình ảnh đã được gắn nhãn. Sau khi chú thích cho các hình ảnh, giờ chúng ta có thể chuyển sang giai đoạn huấn luyện. YOLO11 sử dụng dữ liệu này.
Hình 8. Một ví dụ về việc lưu trữ hình ảnh đã được gán nhãn.
YOLO11 quy trình đào tạo mô hình
Trước khi chúng ta bắt đầu đào tạo YOLO11 , chúng ta sẽ sắp xếp hình ảnh và nhãn. Bắt đầu bằng cách tạo hai thư mục: một thư mục có tên "train" và thư mục còn lại có tên "valid". Chia ảnh vào các thư mục này. Bên trong mỗi thư mục, hãy tạo các thư mục con riêng cho ảnh và các tệp nhãn tương ứng (định dạng văn bản), như minh họa bên dưới.
Hình 9. Một ví dụ về việc tạo thư mục hình ảnh và nhãn.
Sau đó, chúng ta có thể bắt đầu đào tạo YOLO11 mô hình như sau:
Bước 1: Cài đặt gói Ultralytics Python . Bạn có thể thực hiện việc này bằng cách chạy lệnh " pip install ultralytics " trên terminal. Nếu bạn gặp bất kỳ sự cố cài đặt nào, hãy xem hướng dẫn khắc phục sự cố của chúng tôi để biết các mẹo và thủ thuật giúp bạn giải quyết.
Bước 2: Sau khi cài đặt gói thành công, hãy tạo một tệp có tên 'data. yaml '. Đây là tệp cấu hình rất quan trọng để đào tạo mô hình. Trong dữ liệu. yaml tệp, bao gồm các thông tin sau: đường dẫn đến tập dữ liệu đào tạo của bạn, đường dẫn đến tập dữ liệu xác thực của bạn, số lớp (nc) và danh sách tên lớp (tên), như được hiển thị bên dưới.
Hình 10. Ví dụ về dữ liệu. yaml tài liệu.
Bước 3: Sau khi 'data. yaml 'tệp được cấu hình, bạn có thể bắt đầu đào tạo mô hình của mình bằng cách sử dụng sau Python mã. Mã này tải các mã đã được đào tạo trước YOLO11 mô hình hóa và đào tạo nó theo cấu hình của bạn.
from ultralytics import YOLO
# Load a YOLO11 modelmodel = YOLO("yolo11n.pt") # choose your model, e.g., YOLO11 nano# Train the model with your data and settingsmodel.train(data="data.yaml", epochs=100, imgsz=640)
Bước 4: Sau khi quá trình đào tạo hoàn tất, bạn sẽ thấy kết quả tương tự như hình dưới đây. Điều này có nghĩa là bạn đã đào tạo thành công. YOLO11 mô hình cho các ứng dụng dựa trên máy bay không người lái.
Hình 11. Kết quả hiển thị sau khi huấn luyện mô hình.
Chạy dự đoán bằng cách sử dụng Ultralytics YOLO11 trên máy bay không người lái
Người được đào tạo YOLO11 Mô hình hiện có thể được sử dụng để đưa ra dự đoán thông qua một quy trình gọi là suy luận . Suy luận bao gồm việc sử dụng một mô hình để phân tích dữ liệu mới, chưa từng thấy dựa trên những gì nó đã học được trong quá trình huấn luyện. Trong trường hợp này, mô hình có thể được sử dụng để tìm và gắn nhãn các đối tượng cụ thể, chẳng hạn như nhà cửa, trong hình ảnh hoặc video bằng cách vẽ các khung giới hạn xung quanh chúng.
Để chạy một dự đoán, bạn có thể sử dụng YOLO11 mô hình trên video đầu vào bằng cách sử dụng sau đây Python mã. Trong ví dụ này, chúng ta sẽ sử dụng cùng một video máy bay không người lái nhân tạo được dùng để đào tạo, nhưng bạn có thể sử dụng bất kỳ tệp video nào khác nếu muốn.
# Import libraryfrom ultralytics import YOLO
# Load the YOLO modelmodel = YOLO("best.pt") # Choose your custom-trained model# Predict the results from the modelresults = model.predict(source="path/to/original/video.mp4", show=True, save=True)
Sau khi chạy đoạn mã này, tệp video đầu ra với các dự đoán và hộp giới hạn sẽ được lưu.
Hình 12. Một khung hình từ file video đầu ra.
Tích hợp Ultralytics YOLO11 trên máy bay không người lái cho nhiều ứng dụng khác nhau
Việc phát hiện nhà để giao hàng bằng máy bay không người lái chỉ là một ví dụ về cách thức thị giác máy tính và YOLO11 có thể được áp dụng. Dưới đây là một số ứng dụng thực tế khác của thị giác máy tính, YOLO11 và máy bay không người lái:
Giám sát và an ninh:Máy bay không người lái AI có thể được sử dụng để giám sát các khu vực rộng lớn theo thời gian thực. Chúng có thể detect sự xâm nhập, track các hoạt động đáng ngờ và tăng cường an ninh tại biên giới quốc gia cũng như các sự kiện công cộng lớn.
Ứng phó thảm họa và tìm kiếm cứu nạn: Được trang bị camera nhiệt và phát hiện đối tượng, máy bay không người lái có thể giúp định vị những người sống sót trong vùng thảm họa. Chúng cũng có thể đánh giá thiệt hại và cung cấp vật tư khẩn cấp.
Nông nghiệp và canh tác chính xác: Máy bay không người lái tích hợp với thị giác máy tính có thể được sử dụng để phân tích sức khỏe cây trồng và detect bệnh tật, giúp nông dân tăng năng suất đồng thời giảm chi phí.
Lập bản đồ và phân tích không gian địa lý: Bằng cách thu thập bản đồ 3D độ phân giải cao, máy bay không người lái AI có thể hỗ trợ quy hoạch đô thị và khảo sát đất đai. Chúng cung cấp đánh giá địa hình nhanh hơn và chính xác hơn so với các phương pháp truyền thống.
Những điều cần nhớ
Máy bay không người lái AI được hỗ trợ bởi thị giác máy tính đang thay đổi nhiều ngành công nghiệp, từ giao hàng đến hỗ trợ trong trường hợp khẩn cấp và nông nghiệp. Trong hướng dẫn này, chúng tôi đã hướng dẫn cách tạo video máy bay không người lái nhân tạo, gắn nhãn các vật thể trong video, huấn luyện YOLO11 và sử dụng nó để detect nhà ở.
Áp dụng tính năng phát hiện đối tượng vào cảnh quay bằng máy bay không người lái giúp những máy bay không người lái này thông minh hơn, cho phép chúng nhận dạng và track tự động xử lý các vật thể theo thời gian thực. Khi công nghệ được cải thiện, máy bay không người lái được điều khiển bằng AI có thể sẽ đóng vai trò lớn hơn nữa trong việc giao hàng nhanh hơn, cải thiện an ninh và hỗ trợ ứng phó thảm họa.