Descubra como os modelos sequência-a-sequência transformam as sequências de entrada em sequências de saída, potenciando tarefas de IA como tradução, chatbots e reconhecimento de voz.
Os modelos Sequence-to-Sequence (Seq2Seq) são uma classe de modelos de aprendizagem profunda concebidos para transformar uma sequência de entrada numa sequência de saída, em que os comprimentos da entrada e da saída podem ser diferentes. Esta flexibilidade torna-os excecionalmente poderosos para uma vasta gama de tarefas no Processamento de Linguagem Natural (PLN) e não só. A ideia central foi introduzida em artigos de investigadores da Google e do laboratório de Yoshua Bengio, revolucionando domínios como a tradução automática.
Os modelos Seq2Seq são construídos com base numa arquitetura codificador-descodificador. Esta estrutura permite ao modelo tratar eficazmente sequências de comprimento variável.
O codificador: Este componente processa toda a sequência de entrada, como uma frase em inglês. Lê a sequência um elemento de cada vez (por exemplo, palavra a palavra) e comprime a informação numa representação numérica de comprimento fixo chamada vetor de contexto ou "vetor de pensamento". Tradicionalmente, o codificador é uma Rede Neuronal Recorrente (RNN) ou uma variante mais avançada, como a Memória de Curto Prazo Longo (LSTM), que é capaz de captar informação sequencial.
O descodificador: Este componente recebe o vetor de contexto do codificador como entrada inicial. A sua função é gerar a sequência de saída um elemento de cada vez. Por exemplo, numa tarefa de tradução, geraria a frase traduzida palavra a palavra. A saída de cada etapa é devolvida ao descodificador na etapa seguinte, permitindo-lhe gerar uma sequência coerente. Este processo continua até ser produzido um token especial de fim de sequência. Uma inovação fundamental que melhorou significativamente o desempenho do Seq2Seq é o mecanismo de atenção, que permite ao descodificador olhar para diferentes partes da sequência de entrada original enquanto gera a saída.
A capacidade de mapear entradas de comprimento variável para saídas de comprimento variável torna os modelos Seq2Seq altamente versáteis.
Embora os modelos Seq2Seq baseados em RNNs tenham sido inovadores, o domínio evoluiu:
Embora Seq2Seq se refira frequentemente à estrutura codificador-descodificador baseada em RNN, o princípio geral de mapeamento de sequências de entrada para sequências de saída utilizando uma representação intermédia continua a ser central para muitas arquitecturas modernas. Ferramentas como PyTorch e TensorFlow fornecem blocos de construção para implementar modelos de sequência tradicionais e modernos. A gestão do processo de formação pode ser optimizada utilizando plataformas como o Ultralytics HUB, que simplifica todo o pipeline de implementação do modelo.