Saiba como os pesos dos modelos atuam como o conhecimento da IA. Explore como Ultralytics usa pesos otimizados para um treinamento e inferência mais rápidos e precisos.
Os pesos do modelo são os parâmetros aprendíveis dentro de um modelo de aprendizagem automática que transformam os dados de entrada em resultados previstos . Numa rede neural, esses pesos representam a força das conexões entre neurónios em diferentes camadas. Quando um modelo é inicializado, esses pesos são geralmente definidos como valores aleatórios e pequenos, o que significa que o modelo não "sabe" nada. Através de um processo chamado treino, o modelo ajusta iterativamente esses pesos com base nos erros que comete, aprendendo gradualmente a reconhecer padrões, características e relações dentro dos dados. Pode pensar nos pesos do modelo como a «memória» ou o «conhecimento» da IA; eles armazenam o que o sistema aprendeu com os seus dados de treino.
O objetivo principal do treino de uma rede neural é encontrar o conjunto ideal de pesos do modelo que minimize o erro entre as previsões do modelo e a verdade real. Esse processo envolve passar os dados pela rede — uma etapa conhecida como passagem direta — e, em seguida, calcular um valor de perda usando uma função de perda específica . Se a previsão estiver incorreta, um algoritmo de otimização como o Stochastic Gradient Descent (SGD) ou o mais recente otimizador Muon usado no YOLO26 calcula o quanto cada peso contribuiu para o erro.
Através de uma técnica chamada retropropagação, o algoritmo atualiza ligeiramente os pesos para reduzir o erro na próxima vez. Esse ciclo se repete milhares ou milhões de vezes até que os pesos do modelo se estabilizem e o sistema atinja alta precisão. Quando o treinamento é concluído, os pesos são "congelados" e salvos, permitindo que o modelo seja implantado para inferência em dados novos e não vistos.
É importante distinguir entre weights and biases, pois eles funcionam juntos, mas têm finalidades diferentes. Enquanto os pesos do modelo determinam a força e a direção da conexão entre os neurónios (controlando a inclinação da ativação), os vieses permitem que a função de ativação seja deslocada para a esquerda ou para a direita. Esse deslocamento garante que o modelo se ajuste melhor aos dados, mesmo quando todas as características de entrada são zero. Juntos, pesos e vieses formam os parâmetros aprendíveis que definem o comportamento de arquiteturas como Redes Neurais Convolucionais (CNNs).
Os pesos dos modelos são o componente central que permite que os sistemas de IA funcionem em vários setores. Aqui estão dois exemplos concretos de como eles são aplicados:
Na prática, trabalhar com pesos de modelo envolve guardar os parâmetros treinados num ficheiro e carregá-los posteriormente para
previsão ou ajuste fino. No ecossistema Ultralytics
,
estes são normalmente armazenados como .pt (PyTorch) ficheiros.
Aqui está um exemplo simples de como carregar pesos pré-treinados num YOLO e executar uma previsão:
from ultralytics import YOLO
# Load a model with pre-trained weights (e.g., YOLO26n)
model = YOLO("yolo26n.pt")
# Run inference on an image using the loaded weights
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of detected objects
print(f"Detected {len(results[0].boxes)} objects.")
Um dos aspectos mais poderosos dos pesos dos modelos é a sua portabilidade. Em vez de treinar um modelo do zero — o que requer conjuntos de dados enormes e um poder de computação significativo — os programadores costumam usar aprendizagem por transferência. Isso envolve pegar um modelo com pesos pré-treinados em um grande conjunto de dados como COCO ou ImageNet e adaptá-lo a uma tarefa específica.
Por exemplo, pode-se pegar os pesos de um detetor de objetos geral e ajustá-los em um conjunto de dados menor de painéis solares. Como os pesos pré-treinados já compreendem bordas, formas e texturas, o modelo converge muito mais rápido e requer menos dados rotulados. Ferramentas como a Ultralytics simplificam esse processo, permitindo que as equipas gerenciem conjuntos de dados, treinem modelos na nuvem e implantem pesos otimizados em dispositivos de ponta de maneira integrada.
A pesquisa moderna em IA geralmente se concentra em reduzir o tamanho do ficheiro dos pesos do modelo sem sacrificar o desempenho, um processo conhecido como quantização do modelo. Ao reduzir a precisão dos pesos (por exemplo, de ponto flutuante de 32 bits para inteiros de 8 bits), os programadores podem diminuir significativamente o uso de memória e melhorar a velocidade de inferência. Isso é crucial para a implantação de modelos em hardware com recursos limitados, como telemóveis ou dispositivos Raspberry Pi. Além disso, técnicas como a poda removem pesos que contribuem pouco para a saída, otimizando ainda mais o modelo para aplicações em tempo real.