Explore o TinyML e aprenda a implementar Ultralytics em microcontroladores de baixo consumo energético. Descubra como otimizar modelos para a IoT através da quantização e da Ultralytics .
O Tiny Machine Learning, comumente referido como TinyML, representa um subcampo especializado do machine learning que se concentra na implementação de modelos em dispositivos de consumo energético ultrabaixo e com recursos limitados, como microcontroladores e pequenos dispositivos IoT. Ao contrário dos sistemas tradicionais baseados na nuvem que dependem de imensos recursos computacionais, o TinyML opera inteiramente na periferia. Ao executar algoritmos inteligentes localmente em dispositivos com restrições de energia frequentemente medidas em meros miliwatts, esta abordagem minimiza a latência, garante a privacidade dos dados e reduz drasticamente o uso de largura de banda, um paradigma apoiado e promovido por comunidades como a Fundação TinyML.
Para conseguir adaptar arquiteturas complexas de redes neurais a hardware altamente limitado, como os processadores ARM Cortex-M, os modelos devem ser submetidos a uma otimização rigorosa. Técnicas como a quantização de modelos— que converte pesos de 32 bits em ponto flutuante para inteiros de 8 bits — e a poda de modelos são utilizadas para reduzir significativamente a pegada de memória global. Atualmente, frameworks especializados como TensorFlow for Microcontrollers Google e o ExecuTorch PyTorch facilitam estes fluxos de trabalho de compressão precisos, levando inteligência visual e auditiva avançada ao hardware incorporado do dia a dia.
Embora o TinyML esteja intimamente relacionado com a IA de ponta, a principal diferença reside na escala do hardware e no consumo energético. A IA de ponta é um termo mais abrangente que engloba qualquer execução local de modelos de IA, recorrendo frequentemente a computadores de placa única, como um Raspberry Pi, ou a GPUs incorporadas robustas, como um NVIDIA . Em contrapartida, o TinyML visa especificamente sistemas profundamente incorporados que funcionam com baterias durante meses ou anos, tais como placas Arduino ou chips da STMicroelectronics. Estes dispositivos possuem normalmente apenas algumas centenas de kilobytes de RAM, tornando obrigatória uma compressão agressiva dos modelos.
A capacidade de implementar inteligência diretamente em hardware mínimo abriu caminho para inúmeros casos de utilização prática em vários setores:
A preparação de um modelo para um microcontrolador requer uma formatação de exportação rigorosa. Com o Ultralytics , os programadores podem criar pipelines robustos de deteção de objetos e comprimi-los para alvos incorporados. Pode gerir o seu conjunto de dados e o controlo de versões do modelo de forma integrada na Ultralytics antes de exportar localmente. A TFLite nativa TFLite permite uma conversão sem esforço para os formatos inteiros de 8 bits necessários para microcontroladores, complementando outras opções de implementação de modelos específicas de hardware como o CoreML, NVIDIA Edge TPU Google e NVIDIA TensorRT.
O exemplo seguinte demonstra como exportar um modelo YOLO26 leve, especificamente otimizado com quantização INT8, tornando-o adequado para implementação em plataformas de borda compatíveis com TinyML:
from ultralytics import YOLO
# Initialize the lightweight YOLO26 Nano model for edge use cases
model = YOLO("yolo26n.pt")
# Export to TFLite format with INT8 quantization and a reduced image size
# This minimizes the memory footprint and accelerates inference on microcontrollers
model.export(format="tflite", int8=True, imgsz=160)
Comece sua jornada com o futuro do aprendizado de máquina