Descubra como as ResNets revolucionam o aprendizado profundo ao resolver o problema dos gradientes que desaparecem, permitindo redes ultrad profundas para análise de imagens, PNL e muito mais.
As Redes Residuais, comumente conhecidas como ResNet, são um tipo inovador de arquitetura de rede neural (NN) que teve um impacto profundo no campo do aprendizado profundo. Introduzida por Kaiming He et al. em seu artigo de 2015, "Aprendizado Residual Profundo para Reconhecimento de Imagem", a ResNet possibilitou o treinamento eficaz de redes neurais extremamente profundas, com centenas ou até milhares de camadas. Isso foi alcançado através da introdução de "blocos residuais" com "conexões de salto" (skip connections), um conceito simples, porém poderoso, que mitiga o problema do gradiente исчезающий, que comumente afeta redes muito profundas.
A principal inovação da ResNet é o uso de skip connections ou atalhos. Numa Rede Neural Convolucional (CNN) tradicional, cada camada alimenta a sua saída diretamente para a camada seguinte em sequência. À medida que a rede se torna mais profunda, torna-se cada vez mais difícil para a rede aprender e para os gradientes se propagarem para trás durante o treino. Isto pode levar a uma situação em que adicionar mais camadas realmente degrada o desempenho do modelo.
A ResNet resolve isso permitindo que a entrada de uma camada (ou um bloco de camadas) seja adicionada à sua saída. Essa conexão de salto cria um caminho alternativo para o gradiente fluir, garantindo que mesmo redes muito profundas possam ser treinadas de forma eficaz. Essa estrutura permite que a rede aprenda funções residuais—essencialmente, as camadas só precisam aprender as mudanças ou resíduos da entrada, em vez da transformação inteira. Se uma camada não for benéfica, a rede pode facilmente aprender a ignorá-la, direcionando seus pesos para zero, permitindo que o mapeamento de identidade seja passado através da conexão de salto.
As poderosas capacidades de extração de características da ResNet a tornam uma escolha popular como backbone para muitas tarefas complexas de visão computacional.
As arquiteturas ResNet são amplamente implementadas em grandes frameworks de aprendizado profundo, como PyTorch e TensorFlow. Modelos pré-treinados, frequentemente treinados no conjunto de dados de grande escala ImageNet, estão prontamente disponíveis através de bibliotecas como torchvision, o que facilita o aprendizado por transferência eficaz para aplicações personalizadas. Plataformas como o Ultralytics HUB permitem que os usuários aproveitem várias arquiteturas, incluindo modelos baseados em ResNet, para treinar modelos personalizados para suas necessidades específicas. Embora a ResNet tenha estabelecido uma forte linha de base de desempenho, arquiteturas mais recentes como a EfficientNet foram desenvolvidas desde então para oferecer melhor eficiência. Você pode encontrar mais recursos educacionais sobre CNNs no curso CS231n de Stanford ou através de cursos de provedores como DeepLearning.AI.