Descubra como as ResNets revolucionam a aprendizagem profunda ao resolver gradientes de desaparecimento, permitindo redes ultra-profundas para análise de imagens, PNL e muito mais.
As redes residuais, normalmente conhecidas como ResNet, são um tipo inovador de arquitetura de rede neural (NN) que teve um impacto profundo no campo da aprendizagem profunda. Introduzida por Kaiming He et al. no seu artigo de 2015,"Deep Residual Learning for Image Recognition", a ResNet tornou possível treinar eficazmente redes neuronais extremamente profundas, com centenas ou mesmo milhares de camadas. Isto foi conseguido através da introdução de "blocos residuais" com "ligações de salto", um conceito simples mas poderoso que atenua o problema do gradiente de desaparecimento, que normalmente afecta as redes muito profundas.
A principal inovação da ResNet é a utilização de ligações de salto ou atalhos. Numa Rede Neuronal Convolucional (CNN) tradicional, cada camada alimenta a sua saída diretamente para a camada seguinte, em sequência. À medida que a rede se aprofunda, torna-se cada vez mais difícil para a rede aprender e para os gradientes se propagarem de volta durante o treinamento. Isto pode levar a uma situação em que a adição de mais camadas degrada efetivamente o desempenho do modelo.
A ResNet resolve esse problema permitindo que a entrada de uma camada (ou um bloco de camadas) seja adicionada à sua saída. Essa conexão de salto cria um caminho alternativo para o gradiente fluir, garantindo que mesmo redes muito profundas possam ser treinadas com eficácia. Esta estrutura permite que a rede aprenda funções residuais - essencialmente, as camadas só precisam de aprender as alterações ou resíduos da entrada, em vez de toda a transformação. Se uma camada não for benéfica, a rede pode facilmente aprender a ignorá-la, direcionando seus pesos para zero, permitindo que o mapeamento de identidade seja passado através da conexão de salto.
As poderosas capacidades de extração de caraterísticas da ResNet fazem dela uma escolha popular como espinha dorsal para muitas tarefas complexas de visão computacional.
As arquitecturas ResNet são amplamente implementadas nas principais estruturas de aprendizagem profunda, como o PyTorch e o TensorFlow. Os modelos pré-treinados, frequentemente treinados no conjunto de dados ImageNet em grande escala, estão prontamente disponíveis através de bibliotecas como a torchvision, o que facilita a transferência eficaz da aprendizagem para aplicações personalizadas. Plataformas como o Ultralytics HUB permitem aos utilizadores tirar partido de várias arquitecturas, incluindo modelos baseados no ResNet, para treinar modelos personalizados para as suas necessidades específicas. Embora a ResNet tenha estabelecido uma forte linha de base de desempenho, arquitecturas mais recentes, como a EfficientNet, foram entretanto desenvolvidas para oferecer uma melhor eficiência. Pode encontrar mais recursos educativos sobre CNNs no curso CS231n de Stanford ou através de cursos de fornecedores como DeepLearning.AI.