Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

TinyML

Explore o TinyML e aprenda a implementar Ultralytics em microcontroladores de baixo consumo energético. Descubra como otimizar modelos para a IoT através da quantização e da Ultralytics .

O Tiny Machine Learning, comumente referido como TinyML, representa um subcampo especializado do machine learning que se concentra na implementação de modelos em dispositivos de consumo energético ultrabaixo e com recursos limitados, como microcontroladores e pequenos dispositivos IoT. Ao contrário dos sistemas tradicionais baseados na nuvem que dependem de imensos recursos computacionais, o TinyML opera inteiramente na periferia. Ao executar algoritmos inteligentes localmente em dispositivos com restrições de energia frequentemente medidas em meros miliwatts, esta abordagem minimiza a latência, garante a privacidade dos dados e reduz drasticamente o uso de largura de banda, um paradigma apoiado e promovido por comunidades como a Fundação TinyML.

Para conseguir adaptar arquiteturas complexas de redes neurais a hardware altamente limitado, como os processadores ARM Cortex-M, os modelos devem ser submetidos a uma otimização rigorosa. Técnicas como a quantização de modelos— que converte pesos de 32 bits em ponto flutuante para inteiros de 8 bits — e a poda de modelos são utilizadas para reduzir significativamente a pegada de memória global. Atualmente, frameworks especializados como TensorFlow for Microcontrollers Google e o ExecuTorch PyTorch facilitam estes fluxos de trabalho de compressão precisos, levando inteligência visual e auditiva avançada ao hardware incorporado do dia a dia.

TinyML vs. IA de ponta

Embora o TinyML esteja intimamente relacionado com a IA de ponta, a principal diferença reside na escala do hardware e no consumo energético. A IA de ponta é um termo mais abrangente que engloba qualquer execução local de modelos de IA, recorrendo frequentemente a computadores de placa única, como um Raspberry Pi, ou a GPUs incorporadas robustas, como um NVIDIA . Em contrapartida, o TinyML visa especificamente sistemas profundamente incorporados que funcionam com baterias durante meses ou anos, tais como placas Arduino ou chips da STMicroelectronics. Estes dispositivos possuem normalmente apenas algumas centenas de kilobytes de RAM, tornando obrigatória uma compressão agressiva dos modelos.

Aplicações no Mundo Real

A capacidade de implementar inteligência diretamente em hardware mínimo abriu caminho para inúmeros casos de utilização prática em vários setores:

  • Manutenção preditiva na produção inteligente: as fábricas instalam sensores de vibração e de áudio de consumo energético ultrabaixo diretamente nas máquinas. Estes sensores TinyML analisam continuamente as frequências dos motores para detect anomalias detect que indicam uma falha iminente, permitindo que as equipas de manutenção resolvam os problemas antes que ocorram paragens dispendiosas.
  • Agricultura de Precisão Inteligente: Dispositivos TinyML alimentados a bateria são espalhados por vastos campos de cultivo para monitorizar as condições ambientais locais e detect sinais precoces de infestações por pragas ou doenças, utilizando módulos de câmara básicos, transmitindo apenas alertas de pequeno volume em vez de ficheiros de imagem pesados.
  • Monitorização áudio para a conservação da vida selvagem: Os investigadores utilizam redes de sensores acústicos ocultos, equipados com TinyML, para detect específicos de espécies ameaçadas de extinção ou de atividades de abate ilegal (como motosserras) em florestas densas. Funcionando com energia solar ou a bateria, estes dispositivos analisam o áudio localmente e acionam instantaneamente alertas de longo alcance.

Exportação de modelos para TinyML

A preparação de um modelo para um microcontrolador requer uma formatação de exportação rigorosa. Com o Ultralytics , os programadores podem criar pipelines robustos de deteção de objetos e comprimi-los para alvos incorporados. Pode gerir o seu conjunto de dados e o controlo de versões do modelo de forma integrada na Ultralytics antes de exportar localmente. A TFLite nativa TFLite permite uma conversão sem esforço para os formatos inteiros de 8 bits necessários para microcontroladores, complementando outras opções de implementação de modelos específicas de hardware como o CoreML, NVIDIA Edge TPU Google e NVIDIA TensorRT.

O exemplo seguinte demonstra como exportar um modelo YOLO26 leve, especificamente otimizado com quantização INT8, tornando-o adequado para implementação em plataformas de borda compatíveis com TinyML:

from ultralytics import YOLO

# Initialize the lightweight YOLO26 Nano model for edge use cases
model = YOLO("yolo26n.pt")

# Export to TFLite format with INT8 quantization and a reduced image size
# This minimizes the memory footprint and accelerates inference on microcontrollers
model.export(format="tflite", int8=True, imgsz=160)

Vamos construir juntos o futuro da IA!

Comece sua jornada com o futuro do aprendizado de máquina