Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Incorporações (Embeddings)

Descubra o que são embeddings e como eles impulsionam a IA, capturando relações semânticas em dados para PNL, recomendações e visão computacional.

Os embeddings são uma pedra angular do aprendizado de máquina (ML) moderno, representando um método poderoso para converter dados de alta dimensão, como palavras, imagens ou até mesmo usuários, em vetores numéricos densos, significativos e de baixa dimensão. O principal objetivo de um embedding é capturar as relações semânticas e o contexto subjacente dos dados originais. Neste espaço vetorial, itens com significados ou características semelhantes são posicionados mais próximos uns dos outros. Isso permite que os modelos de IA realizem tarefas complexas de raciocínio e similaridade que seriam impossíveis com dados brutos e não estruturados.

Como os embeddings são criados

Os embeddings são normalmente aprendidos automaticamente por um modelo de aprendizado profundo durante o processo de treinamento. Uma rede neural, frequentemente construída com frameworks como PyTorch ou TensorFlow, é treinada em uma tarefa relevante, como prever a próxima palavra em uma frase ou classificar uma imagem. Uma das camadas ocultas dentro desta rede é então usada como a camada de embedding. À medida que o modelo aprende a realizar sua tarefa, ele ajusta os pesos nesta camada, aprendendo efetivamente a mapear cada item de entrada para um vetor que encapsula suas características mais importantes. Este processo é uma forma de redução de dimensionalidade, comprimindo vastas quantidades de informação em um formato compacto e útil.

Aplicações e Exemplos

Os embeddings são fundamentais para uma ampla gama de aplicações de IA, desde o processamento de linguagem natural (NLP) até a visão computacional.

  • Mecanismos de Recomendação de E-commerce: Sistemas de recomendação usam embeddings para representar tanto usuários quanto produtos. Se um usuário compra ou visualiza frequentemente itens com embeddings semelhantes (por exemplo, vários tipos de equipamentos de corrida), o sistema pode identificar outros produtos nessa vizinhança vetorial (como géis energéticos ou mochilas de hidratação) e recomendá-los. Isso é muito mais eficaz do que a simples correspondência de palavras-chave.
  • Pesquisa Semântica e Recuperação de Imagens: Em vez de depender de etiquetas ou metadados, os sistemas de pesquisa semântica usam embeddings para encontrar resultados com base no significado conceptual. Um utilizador pode pesquisar por "fotos de férias de verão", e o sistema irá recuperar imagens de praias, montanhas e cenas de viagens, mesmo que essas palavras exatas não estejam na descrição da imagem. Isto é alimentado por modelos como o CLIP, que geram embeddings alinhados para texto e imagens, permitindo poderosas capacidades de modelo multi-modal. Este mesmo princípio permite uma poderosa pesquisa visual, uma característica chave em muitas aplicações modernas. Pode até construir o seu próprio com o nosso guia de pesquisa de similaridade.

Outras aplicações incluem a descoberta de fármacos, onde as moléculas são incorporadas para prever interações, e os serviços de streaming de música que recomendam músicas com características de áudio semelhantes.

Incorporações vs. Conceitos Relacionados

É útil distinguir embeddings de termos relacionados:

  • Embeddings vs. Extração de Características: Embeddings são uma forma sofisticada e frequentemente automatizada de extração de características, alcançada por meio de aprendizado profundo. Enquanto a engenharia de características tradicional pode envolver a definição manual de características (por exemplo, histogramas de cores para imagens), os embeddings aprendem características relevantes diretamente dos dados durante o treinamento.
  • Embeddings vs. Busca Vetorial / Bancos de Dados Vetoriais: Embeddings são as representações vetoriais de itens de dados. A busca vetorial é o processo de consultar uma coleção de embeddings para encontrar aqueles mais semelhantes (mais próximos) a um vetor de consulta, muitas vezes usando algoritmos de Vizinho Mais Próximo Aproximado (ANN) para eficiência. Bancos de dados vetoriais (como Pinecone ou Milvus) são bancos de dados especializados otimizados para armazenar, indexar e realizar buscas vetoriais rápidas em grandes volumes de embeddings.
  • Embeddings vs. Tokenização: Tokenização é o processo de dividir o texto em unidades menores (tokens). Esses tokens são então mapeados para embeddings. Portanto, a tokenização é uma etapa preliminar antes que a representação de embedding seja criada ou recuperada. Modelos de PNL de destaque como BERT e GPT-4 dependem desse processo de duas etapas.

Os embeddings fornecem uma maneira poderosa de representar dados para modelos de aprendizado de máquina, permitindo que eles entendam similaridades semânticas e padrões complexos em diversos tipos de dados. Eles são parte integrante das capacidades de plataformas de ML modernas como o Ultralytics HUB, que simplifica a criação de modelos de IA avançados para tarefas como detecção de objetos e classificação de imagens.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência