Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Levando o Ultralytics YOLO11 para dispositivos Apple via CoreML

Abirami Vina

4 min de leitura

30 de julho de 2025

Veja como é fácil trazer o Ultralytics YOLO11 para dispositivos Apple com CoreML e habilitar tarefas rápidas de visão computacional offline para aplicativos iOS em tempo real.

Com a Apple a introduzir funcionalidades como a Apple Intelligence, é evidente que a IA no dispositivo está a tornar-se uma parte central da forma como utilizamos os nossos telemóveis. Para os programadores, esta mudança significa que os utilizadores estão a adotar aplicações iOS que utilizam capacidades como a visão computacional para proporcionar experiências mais inteligentes e responsivas.

A visão computacional é um tipo de inteligência artificial (IA) que permite que os computadores entendam e analisem informações visuais, como imagens ou vídeos. Em dispositivos móveis, pode ser usada em tempo real para detectar, classificar e interagir com objetos através da câmera do telefone. Modelos de IA de visão como o Ultralytics YOLO11 podem ser treinados sob medida para reconhecer objetos específicos, dependendo das necessidades do seu aplicativo. 

No entanto, o YOLO11 não está configurado para ser executado no iOS imediatamente. Para implementar o YOLO11 em iPhones ou outros dispositivos Apple, principalmente para uso offline, ele precisa ser convertido em um formato otimizado para o ecossistema da Apple. 

Este é exatamente o tipo de problema que o CoreML foi criado para resolver. O CoreML é a estrutura de aprendizado de máquina da Apple, construída para executar modelos localmente e integrar-se perfeitamente aos aplicativos iOS e macOS. A integração do CoreML, suportada pelo Ultralytics, facilita a exportação do seu modelo para implementação local em iPhones.

Neste artigo, analisaremos mais de perto como exportar seu modelo YOLO11 para o formato CoreML. Também exploraremos casos de uso em tempo real que mostram as vantagens de executar modelos de visão computacional diretamente em dispositivos iOS. Vamos começar!

O que é CoreML?

CoreML é uma estrutura de aprendizado de máquina (ML) desenvolvida pela Apple que possibilita aos desenvolvedores integrar modelos de ML treinados diretamente em aplicativos em todo o ecossistema da Apple, incluindo iOS (iPhone e iPad), macOS (Mac), watchOS (Apple Watch) e tvOS (Apple TV). Ele é projetado para tornar o aprendizado de máquina acessível e eficiente em dispositivos Apple, permitindo que os modelos sejam executados diretamente no dispositivo, sem exigir uma conexão com a internet.

No centro do CoreML está um formato de modelo unificado que suporta uma ampla gama de tarefas de IA, como classificação de imagens, detecção de objetos, reconhecimento de fala e processamento de linguagem natural. A estrutura é otimizada para aproveitar ao máximo o hardware da Apple, usando a CPU (unidade central de processamento), GPU (unidade de processamento gráfico) e ANE (Apple Neural Engine) para executar modelos de forma rápida e eficiente.

O CoreML suporta uma variedade de tipos de modelos e é compatível com bibliotecas populares de aprendizado de máquina, incluindo TensorFlow, PyTorch, scikit-learn, XGBoost e LibSVM. Isso torna mais fácil para os desenvolvedores trazerem recursos avançados de ML para aplicativos do dia a dia, garantindo que eles funcionem sem problemas em dispositivos Apple.

Fig. 1. O CoreML oferece suporte a modelos de outras estruturas de IA populares (Fonte).

Principais recursos do CoreML

Aqui estão alguns dos principais recursos que tornam o CoreML uma ferramenta confiável para integrar IA em aplicativos Apple:

  • Otimização de modelo: O CoreML oferece suporte a técnicas de compressão, como quantização e pruning, para reduzir o tamanho do modelo e melhorar a eficiência do tempo de execução.
  • Personalização no dispositivo: A estrutura de ML da Apple suporta personalização no dispositivo, permitindo que os modelos sejam treinados e atualizados localmente com base nas interações do usuário.
  • Previsões assíncronas: Esta estrutura permite que a sua aplicação execute previsões em segundo plano, mantendo a interface de utilizador fluida e responsiva enquanto lida com tarefas de IA.
  • Aprendizado multi-tarefa: O CoreML suporta modelos que podem executar várias tarefas ao mesmo tempo, como detectar objetos e reconhecer texto na mesma imagem.

Como exportar YOLO11 para o formato CoreML

Agora que temos uma melhor compreensão da estrutura CoreML, vamos percorrer como usar a integração CoreML suportada pela Ultralytics para exportar um modelo YOLO11 para o formato CoreML.

Passo 1: Configurando seu ambiente

Para acessar os recursos de integração fornecidos pela Ultralytics, comece instalando o pacote Python Ultralytics. É uma biblioteca leve e fácil de usar que simplifica tarefas como treinamento, avaliação, previsão e exportação de modelos YOLO da Ultralytics.

Você pode instalar o pacote Python Ultralytics executando “pip install ultralytics” no seu terminal de comando. Se estiver a usar um ambiente como o Jupyter Notebook ou o Google Colab, inclua um ponto de exclamação (!) antes do comando: “!pip install ultralytics”.

Se você encontrar algum problema durante a instalação ou ao exportar para CoreML, consulte a documentação oficial da Ultralytics ou o guia de problemas comuns para obter ajuda.

Passo 2: Exportando YOLO11 para CoreML

Depois que o pacote é instalado com sucesso, você está pronto para carregar um modelo YOLO11 e convertê-lo para o formato CoreML.

Se você não tiver certeza de qual modelo YOLO11 pré-treinado usar, você pode explorar a variedade de modelos suportados pela Ultralytics. Cada um oferece um equilíbrio diferente de velocidade, tamanho e precisão, e você pode escolher o mais adequado para o seu projeto. Você também pode usar um modelo YOLO11 treinado de forma personalizada se você treinou um em seu próprio conjunto de dados.

No trecho de código abaixo, um arquivo de modelo YOLO11 pré-treinado chamado "yolo11n.pt" é usado. Durante o processo de exportação, ele é convertido em um pacote CoreML chamado "yolo11n.mlpackage".

O modelo "yolo11n" é a versão nano, otimizada para velocidade e baixo uso de recursos. Dependendo das necessidades do seu projeto, você também pode escolher outros tamanhos de modelo, como "s" para pequeno, "m" para médio, "l" para grande ou "x" para extra-grande. Cada versão oferece um equilíbrio diferente entre desempenho e precisão.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

Passo 3: Executando a inferência usando o modelo CoreML exportado

Após a exportação para o formato CoreML, o YOLO11 pode ser facilmente integrado em aplicações iOS, permitindo tarefas de visão computacional em tempo real, como detecção de objetos em dispositivos como iPhones, iPads e Macs.

Por exemplo, o trecho de código abaixo demonstra como carregar o modelo CoreML exportado e realizar a inferência. A inferência é o processo de usar um modelo treinado para fazer previsões sobre novos dados. Neste caso, o modelo analisa uma imagem de uma família brincando com uma bola.

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

Após executar o código, a imagem de saída será salva na pasta "runs/detect/predict".

Fig 2. Utilizando um modelo YOLO11 exportado no formato CoreML para detectar objetos. Imagem do autor.

Onde os modelos CoreML exportados podem ser usados?

Exportar YOLO11 para CoreML traz a flexibilidade para construir diversas aplicações de visão computacional que podem ser executadas de forma eficiente em iPhones, iPads e Macs. Em seguida, vamos analisar alguns cenários do mundo real onde esta integração pode ser especialmente útil.

Realidade aumentada e aplicativos de jogos impulsionados por modelos CoreML

A realidade aumentada (RA) combina conteúdo digital com o mundo real, sobrepondo elementos virtuais em visualizações de câmera ao vivo. Está se tornando uma parte fundamental dos jogos para dispositivos móveis, criando experiências mais interativas e imersivas.

Com o YOLO11 exportado para o formato CoreML, os desenvolvedores de iOS podem criar jogos de AR que reconhecem objetos do mundo real, como bancos, árvores ou sinais, usando a câmara do telefone. O jogo pode então sobrepor itens virtuais, como moedas, pistas ou criaturas, em cima desses objetos para melhorar o ambiente do jogador.

Nos bastidores, isso funciona usando a detecção e o rastreamento de objetos. O YOLO11 detecta e identifica objetos em tempo real, enquanto o rastreamento mantém esses objetos à vista conforme a câmera se move, garantindo que os elementos virtuais permaneçam alinhados com o mundo real.

Os jogadores podem apontar seus telefones, explorar seu ambiente e interagir com o que veem para coletar itens ou completar desafios rápidos. Tudo isso pode ser executado diretamente no dispositivo, sem a necessidade de uma conexão com a internet, tornando a experiência suave e envolvente.

Aplicativos iOS integrados com modelos CoreML para ANPR em tempo real

O Reconhecimento Automático de Placas de Veículos (ANPR) é uma aplicação de visão computacional usada para detectar e ler placas de veículos. É comumente usado em sistemas de segurança, monitoramento de tráfego e controle de acesso. Com CoreML e modelos como o YOLO11, o ANPR agora pode ser executado de forma eficiente em dispositivos iOS. 

Ter um aplicativo ANPR no seu iPhone pode ser especialmente útil em ambientes focados em segurança. Por exemplo, pode ajudar as equipes a determinar rapidamente se um veículo que entra em uma área restrita está autorizado ou não.

Tal aplicativo pode usar um modelo de Visão de IA, como o YOLO11, integrado através do CoreML, para detectar veículos e localizar suas placas em tempo real usando a câmera do dispositivo. Uma vez que uma placa é detectada, a tecnologia de Reconhecimento Óptico de Caracteres (OCR) pode ler o número da licença. O aplicativo pode então comparar este número com um banco de dados local ou baseado na nuvem para verificar o acesso ou sinalizar veículos não autorizados.

Fig 3. A IA de visão pode ser usada para detectar e ler números de placas de veículos. (Fonte).

Aplicativos focados em acessibilidade podem aproveitar modelos CoreML

A IA teve um grande impacto na acessibilidade, ajudando a derrubar barreiras para pessoas com deficiência visual. Com ferramentas como o CoreML e modelos de visão computacional como o YOLO11, os desenvolvedores podem criar aplicativos iOS que descrevem o mundo ao redor dos usuários em tempo real, tornando as tarefas diárias mais fáceis e independentes.

Por exemplo, uma pessoa com deficiência visual pode apontar a câmera do iPhone para seus arredores. O aplicativo usa a detecção de objetos para reconhecer elementos-chave, como veículos, pessoas ou placas de rua, e narra o que vê. Isso pode ser usado em situações como navegar em uma rua movimentada ou entender uma emergência.

Fig 4. Um exemplo de uso do YOLO11 para detectar pessoas

Principais conclusões

Exportar YOLO11 para o formato CoreML cria novas oportunidades para aplicações em tempo real, incluindo a detecção de objetos offline em dispositivos iOS. Da agricultura e segurança à acessibilidade, esta combinação permite que os desenvolvedores criem aplicações inteligentes, eficientes e focadas na privacidade que são executadas inteiramente no dispositivo.

Com apenas alguns passos simples, pode converter o seu modelo YOLO11 e adicionar funcionalidades de visão computacional fiáveis a iPhones. O melhor de tudo é que funciona sem necessidade de uma ligação à Internet. No geral, a integração do CoreML traz o poder da IA avançada para as aplicações móveis do dia a dia, tornando-as mais rápidas, responsivas e prontas para serem executadas em qualquer lugar.

Quer saber mais sobre IA? Explore nosso repositório GitHub, conecte-se com nossa comunidade e confira nossas opções de licenciamento para dar o pontapé inicial no seu projeto de visão computacional. Descubra como inovações como IA no varejo e visão computacional na logística estão moldando o futuro em nossas páginas de soluções.

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência