Descubra como a Destilação de Conhecimento comprime modelos de IA para inferência mais rápida, precisão aprimorada e eficiência na implantação de dispositivos de borda.
A Destilação de Conhecimento é uma técnica de otimização de modelo e compressão em aprendizado de máquina (ML) onde um modelo "estudante" compacto é treinado para reproduzir o desempenho de um modelo "professor" maior e mais complexo. A ideia central é transferir o "conhecimento" do modelo professor poderoso, mas complicado, para o modelo estudante menor e mais eficiente. Isso permite a implantação de modelos altamente precisos em ambientes com recursos limitados, como em dispositivos de borda ou telefones celulares, sem uma queda significativa no desempenho. O processo preenche a lacuna entre modelos de pesquisa massivos e de última geração e a implantação de modelo prática no mundo real.
O modelo professor, normalmente uma grande rede neural ou um ensemble de modelos, é primeiro treinado em um grande conjunto de dados para alcançar alta precisão. Durante o processo de destilação, o modelo aluno aprende tentando imitar as saídas do professor. Em vez de aprender apenas com os rótulos verdadeiros nos dados de treinamento, o aluno também é treinado nas distribuições de probabilidade completas do professor para cada previsão, frequentemente chamadas de "rótulos suaves". Esses rótulos suaves fornecem informações mais ricas do que os "rótulos rígidos" (as respostas corretas), pois revelam como o modelo professor "pensa" e generaliza. Por exemplo, um modelo professor pode prever que uma imagem de um gato é "gato" com 90% de confiança, mas também atribuir pequenas probabilidades a "cachorro" (5%) e "raposa" (2%). Esta informação matizada ajuda o modelo aluno a aprender de forma mais eficaz, muitas vezes levando a uma melhor generalização do que se fosse treinado apenas com os rótulos rígidos. Esta técnica é uma parte fundamental do kit de ferramentas de aprendizado profundo para criar modelos eficientes.
A Destilação de Conhecimento é amplamente utilizada em vários domínios para tornar a IA poderosa acessível.
A Destilação de Conhecimento está relacionada, mas é distinta de outras técnicas de otimização de modelo. Entender as diferenças é fundamental para escolher a abordagem certa para o seu projeto, que pode ser gerenciado e implementado por meio de plataformas como o Ultralytics HUB.