Descobre como a Pesquisa de Arquitetura Neural (NAS) automatiza a conceção de redes neurais para um desempenho optimizado na deteção de objectos, IA e muito mais.
A pesquisa de arquitetura neural (NAS) é uma técnica automatizada no domínio da aprendizagem automática (ML) centrada na conceção da estrutura, ou arquitetura, óptima das redes neurais (NN). Em vez de depender de especialistas humanos para conceber manualmente layouts de rede através de tentativa e erro, a NAS emprega algoritmos para explorar um vasto espaço de possíveis arquitecturas e identificar as mais eficazes para uma determinada tarefa e conjunto de dados. Esta automatização acelera o processo de desenvolvimento e pode revelar arquitecturas novas e de elevado desempenho que podem não ser intuitivamente óbvias para os projectistas humanos, optimizando métricas como a precisão, a velocidade(latência de inferência) ou a eficiência computacional, o que é crucial para a implementação de modelos em dispositivos de IA de ponta.
O processo fundamental do NAS envolve três componentes principais: um espaço de pesquisa, uma estratégia de pesquisa e uma estratégia de estimativa do desempenho. O espaço de pesquisa define o conjunto de possíveis arquitecturas de rede que podem ser concebidas, delineando essencialmente os blocos de construção (como diferentes tipos de convolução ou funções de ativação) e a forma como podem ser ligados. A estratégia de pesquisa orienta a exploração deste espaço, utilizando métodos que vão desde a pesquisa aleatória e a aprendizagem por reforço até aos algoritmos evolutivos. Por último, a estratégia de estimativa do desempenho avalia o desempenho de uma arquitetura candidata, envolvendo frequentemente o treino parcial ou total da rede num conjunto de dados e a medição do seu desempenho, embora se utilizem técnicas como a partilha de pesos ou preditores de desempenho para acelerar este processo, tal como detalhado na investigação da Google AI. A gestão eficiente destas experiências pode ser facilitada por plataformas como Weights & Biases ou Ultralytics HUB.
A automatização da conceção da arquitetura com o NAS oferece vantagens significativas:
O NAS provou ser valioso em vários domínios de aprendizagem profunda (DL):
Um exemplo proeminente é o YOLO, desenvolvido pela Deci AI utilizando a tecnologia NAS. Este modelo visava especificamente as limitações dos modelos anteriores Ultralytics YOLO anteriores, incorporando blocos compatíveis com a quantização encontrados através do NAS. Isso resultou em modelos que oferecem um equilíbrio superior entre precisão e latência, tornando-os altamente eficazes para aplicações em tempo real, como IA em soluções automotivas e gerenciamento inteligente de tráfego, mesmo após a quantização do modelo em formatos como INT8 para implantação eficiente. Mais informações sobre técnicas de quantização podem ser encontradas em recursos como a documentaçãoNVIDIA TensorRT ou o guiaUltralytics sobre opções de implementação de modelos. Ultralytics oferece suporte a vários modelos de deteção de objetos, incluindo YOLO.
Na área da saúde, o NAS é utilizado para conceber Redes Neuronais Convolucionais (CNNs) personalizadas para analisar imagens médicas. Por exemplo, a NAS pode otimizar arquitecturas para tarefas como a deteção de tumores em exames de ressonância magnética (semelhante ao conjunto de dados de tumores cerebrais) ou a segmentação de órgãos em imagens de tomografia computorizada, o que pode levar a ferramentas de diagnóstico mais rápidas e precisas para ajudar os médicos. A aplicação da IA na análise de imagens médicas é um campo em rápido crescimento, como destacado por instituições como os Institutos Nacionais de Saúde (NIH). A gestão destes modelos e conjuntos de dados especializados pode ser simplificada utilizando plataformas como o Ultralytics HUB. Podes até utilizar YOLO11 para a deteção de tumores.
O NAS é um componente específico dentro do campo mais alargado da Aprendizagem Automática de Máquinas (AutoML). Enquanto o NAS se concentra apenas em encontrar a melhor arquitetura de rede neural, o AutoML pretende automatizar todo o pipeline de ML, incluindo passos como o pré-processamento de dados, engenharia de caraterísticas, seleção de modelos e afinação de hiperparâmetros. É crucial distinguir o NAS do ajuste de hiperparâmetros: o ajuste de hiperparâmetros optimiza as definições de configuração (como a taxa de aprendizagem ou o tamanho do lote) para uma determinada arquitetura de modelo fixa, enquanto o NAS procura a própria arquitetura. Ambas as técnicas são frequentemente utilizadas em conjunto para obter um desempenho ótimo do modelo. Ferramentas como o Optuna ou o Ray Tune, que se integra nos modelosUltralytics YOLO , são populares para a otimização de hiperparâmetros. Compreender essas distinções ajuda a aplicar as técnicas de automação corretas para criar sistemas de IA eficientes. Podes saber mais sobre o ajuste de hiperparâmetros na documentação Ultralytics .