Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Implante o Ultralytics YOLO11 perfeitamente usando o OpenVINO™

Abirami Vina

Leitura de 5 minutos

1 de julho de 2025

Aprenda como exportar o Ultralytics YOLO11 para o formato OpenVINO™ permite uma inferência extremamente rápida no hardware Intel®, aumentando a velocidade, a escalabilidade e a precisão.

A adoção da IA depende da acessibilidade das soluções de IA, e uma grande parte disso é torná-las fáceis de implementar no hardware que as pessoas já possuem. Executar modelos de IA em GPUs (unidades de processamento gráfico) é uma ótima opção em termos de desempenho e poder de processamento paralelo. 

No entanto, a realidade é que nem todos têm acesso a GPUs de ponta, especialmente em ambientes de borda ou em laptops comuns. É por isso que é tão importante otimizar os modelos para serem executados de forma eficiente em hardware mais amplamente disponível, como unidades centrais de processamento (CPUs), GPUs integradas e unidades de processamento neural (NPUs).

A visão computacional, por exemplo, é um ramo da IA que permite que as máquinas analisem e compreendam imagens e fluxos de vídeo em tempo real. Modelos de IA de visão como o Ultralytics YOLO11 suportam tarefas importantes como detecção de objetos e segmentação de instâncias que alimentam aplicações desde análise de varejo até diagnósticos médicos.

Fig 1. Usando Ultralytics YOLO11 para detectar e segmentar objetos em uma loja de varejo.

Para tornar a visão computacional mais amplamente acessível, a Ultralytics lançou uma integração atualizada com o kit de ferramentas OpenVINO, que é um projeto de código aberto para otimizar e executar a inferência de IA em CPUs, GPUs e NPUs. 

Com esta integração, é mais fácil exportar e implementar modelos YOLO11 com uma inferência até 3× mais rápida em CPUs e um desempenho acelerado em GPUs e NPUs Intel. Neste artigo, vamos percorrer como utilizar o pacote Python Ultralytics para exportar modelos YOLO11 para o formato OpenVINO e utilizá-lo para inferência. Vamos começar!

Uma visão geral do Ultralytics YOLO11

Antes de nos aprofundarmos nos detalhes da integração OpenVINO suportada pela Ultralytics, vamos dar uma olhada mais de perto no que torna o YOLO11 um modelo de visão computacional confiável e impactante. O YOLO11 é o modelo mais recente da série Ultralytics YOLO, oferecendo melhorias significativas em velocidade e precisão. 

Um dos seus principais destaques é a eficiência. Por exemplo, o Ultralytics YOLO11m tem 22% menos parâmetros do que o Ultralytics YOLOv8m, mas atinge uma precisão média mais alta (mAP) no conjunto de dados COCO. Isso significa que ele é executado mais rapidamente e também deteta objetos com mais precisão, tornando-o ideal para aplicações em tempo real onde o desempenho e a capacidade de resposta são críticos.

Fig 2. Benchmarks de desempenho do Ultralytics YOLO11.

Além da detecção de objetos, o YOLO11 suporta várias tarefas avançadas de visão computacional, como segmentação de instâncias, estimativa de pose, classificação de imagens, rastreamento de objetos e detecção de caixas delimitadoras orientadas. O YOLO11 também é amigável para desenvolvedores, com o pacote Ultralytics Python fornecendo uma interface simples e consistente para treinar, avaliar e implantar modelos. 

Além disso, o pacote Python Ultralytics oferece suporte a várias integrações e vários formatos de exportação, incluindo OpenVINO, ONNX, TorchScript, permitindo que você integre facilmente o YOLO11 em vários pipelines de implantação. Seja qual for o seu alvo, infraestrutura de nuvem, dispositivos edge ou sistemas embarcados, o processo de exportação é direto e adaptável às suas necessidades de hardware.

O que é OpenVINO™?

OpenVINO™ (Open Visual Inference and Neural Network Optimization) é um kit de ferramentas de código aberto para otimizar e implementar a inferência de IA em uma ampla gama de hardware. Ele permite que os desenvolvedores executem aplicativos de inferência de alto desempenho de forma eficiente em várias plataformas Intel, incluindo CPUs, GPUs integradas e discretas, NPUs e field-programmable gate arrays (FPGAs).

O OpenVINO fornece uma interface de tempo de execução unificada que abstrai as diferenças de hardware por meio de plugins específicos do dispositivo. Isso significa que os desenvolvedores podem escrever o código uma vez e implantá-lo em vários alvos de hardware Intel usando uma API consistente. 

Aqui estão alguns dos principais recursos que tornam o OpenVINO uma ótima escolha para implantação:

  • Conversor de modelo: Esta ferramenta converte e prepara modelos de frameworks populares, como PyTorch, ONNX, TensorFlow, PaddlePaddle e outros, para que possam ser otimizados para inferência eficiente no hardware Intel.
  • Execução heterogênea: Você não precisa reescrever seu código para diferentes hardwares Intel. O OpenVINO facilita a execução do mesmo modelo em qualquer hardware compatível, de CPUs a GPUs.
  • Suporte à quantização: O kit de ferramentas oferece suporte a formatos de precisão reduzida, como FP16 (padrão) e INT8, que ajudam a diminuir o tamanho do modelo e acelerar a inferência sem afetar significativamente a precisão.
Fig 3. OpenVINO permite diversas opções de implementação.

Explorando a integração Ultralytics x OpenVINO

Agora que exploramos o que é o OpenVINO e sua importância, vamos discutir como exportar modelos YOLOv8 para o formato OpenVINO e executar inferência eficiente em hardware Intel.

Passo 1: Instale o pacote Python Ultralytics

Para exportar um modelo para o formato OpenVINO, você precisará primeiro instalar o pacote Python Ultralytics. Este pacote fornece tudo o que você precisa para treinar, avaliar e exportar modelos YOLO, incluindo o YOLOv8. 

Você pode instalá-lo executando o comando "pip install ultralytics" no seu terminal ou prompt de comando. Se estiver a trabalhar num ambiente interativo como o Jupyter Notebook ou o Google Colab, basta adicionar um ponto de exclamação antes do comando. 

Além disso, se você encontrar algum problema durante a instalação ou ao exportar, a documentação da Ultralytics e os guias de solução de problemas são ótimos recursos para ajudá-lo a voltar ao caminho certo.

Passo 2: Exporte seu modelo YOLO11 para o formato OpenVINO

Depois que o pacote Ultralytics é configurado, a próxima etapa é carregar seu modelo YOLO11 e convertê-lo em um formato compatível com o OpenVINO. 

No exemplo abaixo, estamos usando um modelo YOLO11 pré-treinado ("yolo11n.pt"). A funcionalidade de exportação é usada para convertê-lo para o formato OpenVINO. Depois de executar este código, o modelo convertido será salvo em um novo diretório chamado "yolo11n_openvino_model".

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

Passo 3: Execute a inferência com o modelo exportado

Depois que o seu modelo YOLO11 é exportado para o formato OpenVINO, pode executar inferências de duas maneiras: usando o pacote Ultralytics Python ou o OpenVINO Runtime nativo.

Usando o pacote Python Ultralytics

O modelo YOLO11 exportado pode ser facilmente implementado usando o pacote Ultralytics Python, como mostrado no trecho de código abaixo. Este método é ideal para experimentação rápida e implementação simplificada em hardware Intel. 

Você também pode especificar qual dispositivo usar para inferência, como "intel:cpu", "intel:gpu" ou "intel:npu", dependendo do hardware Intel disponível em seu sistema.

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

Após executar o código acima, a imagem de saída será salva no diretório "runs/detect/predict".

Fig 4. Usando o modelo YOLO11 exportado para detectar objetos em uma imagem.

Usando o OpenVINO Runtime nativo

Se você procura uma forma personalizável de executar a inferência, especialmente em ambientes de produção, o OpenVINO Runtime oferece mais controle sobre como seu modelo é executado. Ele suporta recursos avançados, como execução assíncrona (execução de várias solicitações de inferência em paralelo) e balanceamento de carga (distribuição eficiente das cargas de trabalho de inferência no hardware Intel).

Para usar o runtime nativo, você precisará dos arquivos do modelo exportado: um arquivo .xml (que define a arquitetura da rede) e um arquivo .bin (que armazena os pesos treinados do modelo). Você também pode configurar parâmetros adicionais, como dimensões de entrada ou etapas de pré-processamento, dependendo da sua aplicação.

Um fluxo de implantação típico inclui a inicialização do núcleo OpenVINO, o carregamento e a compilação do modelo para um dispositivo de destino, a preparação da entrada e a execução da inferência. Para exemplos detalhados e orientação passo a passo, consulte a documentação oficial do Ultralytics OpenVINO.

Por que escolher a integração Ultralytics x OpenVINO?

Ao explorar as integrações do Ultralytics, notará que o pacote Python do Ultralytics suporta a exportação de modelos YOLO11 para uma variedade de formatos, como TorchScript, CoreML, TensorRT e ONNX. Então, por que escolher a integração OpenVINO?

Aqui estão algumas razões pelas quais o formato de exportação OpenVINO é uma ótima opção para implantar modelos em hardware Intel:

  • Ganhos de desempenho: Você pode experimentar até inferência 3 vezes mais rápida em CPUs Intel, com aceleração adicional disponível em GPUs e NPUs integradas.
  • Não é necessário novo treino: Pode exportar os seus modelos YOLO11 existentes diretamente para o formato OpenVINO sem os modificar ou voltar a treiná-los.
  • Construído para escalar: O mesmo modelo exportado pode ser implementado em dispositivos de borda de baixa potência e em infraestrutura de nuvem de grande escala, simplificando a implantação de IA escalável.

Você também pode avaliar os benchmarks de desempenho para o modelo YOLO11 em uma variedade de plataformas Intel® no OpenVINO™ Model Hub. O OpenVINO Model Hub é um recurso para desenvolvedores avaliarem modelos de IA em hardware Intel e descobrirem a vantagem de desempenho do OpenVINO em CPUs Intel, GPUs integradas, NPUs e gráficos discretos. 

Fig 5. OpenVINO™ Model Hub: Benchmarks de desempenho para o modelo YOLO11 numa variedade de plataformas Intel®.

Aplicações do YOLO11 e do formato de exportação OpenVINO

Com a ajuda da integração do OpenVINO, a implementação de modelos YOLO11 em hardware Intel em situações do mundo real torna-se muito mais simples. 

Um ótimo exemplo é o varejo inteligente, onde o YOLO11 pode ajudar a detectar prateleiras vazias em tempo real, rastrear quais produtos estão acabando e analisar como os clientes se movem pela loja. Isso permite que os varejistas melhorem o gerenciamento de estoque e otimizem o layout da loja para um melhor envolvimento do cliente.

Da mesma forma, em cidades inteligentes, o YOLO11 pode ser usado para monitorar o tráfego contando veículos, rastreando pedestres e detectando infrações de semáforo em tempo real. Essas informações podem otimizar o fluxo de tráfego, melhorar a segurança rodoviária e auxiliar em sistemas de fiscalização automatizados.

Fig 6. Contagem de veículos usando YOLO11.

Outro caso de uso interessante é a inspeção industrial, onde o YOLO11 pode ser implementado em linhas de produção para detectar automaticamente defeitos visuais, como componentes ausentes, desalinhamento ou danos na superfície. Isso aumenta a eficiência, reduz custos e oferece melhor qualidade do produto.

Principais fatores a serem considerados ao usar o toolkit OpenVINO

Ao implementar modelos YOLO11 com OpenVINO, aqui estão algumas coisas importantes a serem lembradas para obter os melhores resultados:

  • Verificar a compatibilidade do hardware: Certifique-se de que seu hardware Intel, seja uma CPU, GPU integrada ou NPU, seja compatível com o OpenVINO para que o modelo possa ser executado de forma eficiente.

  • Instale os drivers corretos: Se você estiver usando GPUs ou NPUs da Intel, verifique se todos os drivers necessários estão instalados corretamente e atualizados.

  • Compreender as vantagens e desvantagens da precisão: O OpenVINO suporta precisões de modelo FP32, FP16 e INT8. Cada uma tem um compromisso entre velocidade e precisão, por isso é importante escolher a opção certa com base nos seus objetivos de desempenho e hardware disponível.

Principais conclusões

Exportar Ultralytics YOLO11 para o formato OpenVINO facilita a execução de modelos Vision AI rápidos e eficientes no hardware Intel. Você pode implementar em CPUs, GPUs e NPUs sem precisar treinar novamente ou alterar seu código. É uma ótima maneira de aumentar o desempenho, mantendo as coisas simples e escaláveis.

Com o suporte integrado no pacote Python Ultralytics, exportar e executar a inferência com o OpenVINO é simples. Em apenas alguns passos, pode otimizar o seu modelo e executá-lo numa variedade de plataformas Intel. Quer esteja a trabalhar em retalho inteligente, monitorização de tráfego ou inspeção industrial, este fluxo de trabalho ajuda-o a passar do desenvolvimento para a implementação com rapidez e confiança.

Junte-se à comunidade YOLO e confira o repositório GitHub da Ultralytics para saber mais sobre as integrações impactantes suportadas pela Ultralytics. Além disso, dê uma olhada nas opções de licenciamento da Ultralytics para começar a usar a visão computacional hoje mesmo!

Inscreva-se para o nosso próximo webinar para ver a integração Ultralytics × OpenVINO em ação e visite o site OpenVINO para explorar ferramentas para otimizar e implantar IA em escala.

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência