Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

LangChain

Simplifiez le développement d'applications d'IA avec LangChain ! Créez sans effort de puissantes solutions basées sur des LLM, telles que des chatbots et des outils de synthèse.

LangChain est un framework open-source conçu pour simplifier la création d'applications basées sur de grands modèles linguistiques (LLM). de grands modèles linguistiques (LLM). Il agit comme un permettant aux développeurs de combiner les capacités de raisonnement de modèles tels que GPT-4 ou Llama avec des sources externes de calcul et de données. de calcul et de données externes. En fournissant une interface standardisée pour les "chaînes" - des séquences d'opérations qui d'opérations qui relient les LLM à d'autres outils, LangChain permet le développement de systèmes conscients du contexte qui peuvent interagir dynamiquement avec leur environnement. leur environnement. Ce cadre est essentiel pour construire des outils sophistiqués allant des chatbots intelligents aux agents décisionnels complexes. chatbots intelligents à des agents décisionnels complexes, allant au-delà de la simple génération de texte à des flux de travail exploitables. de la simple génération de texte à des flux de travail exploitables.

Concepts fondamentaux et architecture

L'architecture de LangChain s'articule autour de composants modulaires qui peuvent être enchaînés pour résoudre des problèmes spécifiques. problèmes spécifiques, un aspect essentiel des opérations d'apprentissage automatique (MLOps).

  • Chaînes: Élément fondamental de la construction, une chaîne relie plusieurs composants dans un ordre spécifique. Par exemple, une chaîne peut d'abord effectuer un prétraitement des données sur l'entrée de l'utilisateur, l'introduire dans un LLM, puis formater la sortie. un LLM, puis formater la sortie. Cela permet d'utiliser des techniques telles que l'enchaînement d'invites, où la sortie d'une étape sert d'invite pour la suivante. sert d'invite pour l'étape suivante.
  • Agents: Alors que les chaînes suivent une séquence codée en dur, les agents d'IA utilisent un LLM comme moteur de raisonnement pour déterminer quelles actions entreprendre et dans quel ordre. Un agent peut décider d'effectuer une recherche sur le web, d'interroger une base de données vectorielles ou d'effectuer un calcul basé sur des données de base. base de données vectorielles ou d'effectuer un calcul la demande de l'utilisateur.
  • Mémoire: Les LLM standard ne conservent pas les informations entre les interactions. LangChain fournit des composants qui permettent aux applications de conserver une fenêtre de contexte, ce qui permet au système de des interactions antérieures dans une conversation.

Applications concrètes

LangChain contribue au déploiement de solutions polyvalentes d'intelligence artificielle (IA). solutions polyvalentes d'intelligence artificielle (IA) dans divers secteurs d'activité.

  1. Génération améliorée par récupération (RAG): L'un des cas d'utilisation les plus populaires consiste à construire des systèmes qui peuvent "dialoguer" avec vos données. qui peuvent "discuter" avec vos données. En connectant un LLM à des documents privés via génération améliorée (RAG), les organisations peuvent créer des assistants qui répondent à des questions basées sur des wikis internes, des contrats légaux ou des manuels techniques. techniques. Il s'agit d'indexer le texte dans un moteur de recherche vectoriel, ce qui permet au LLM de citer des des sources spécifiques plutôt que d'halluciner des réponses.
  2. Analyse multimodale: LangChain peut orchestrer des flux de travail qui combinent du texte avec d'autres modalités. Par exemple, dans le domaine de la vision par ordinateur, une application peut utiliser un modèle de détection d'objet. application pourrait utiliser un modèle de détection d'objets pour identifier les éléments d'une image, puis transmettre ces données structurées à un LLM pour générer une description créative ou un rapport de sécurité. rapport de sécurité.

Intégration avec la vision par ordinateur

La combinaison de LangChain avec des modèles de vision ouvre de puissantes possibilités pour l'IA agentique. l 'IA agentique. Les développeurs peuvent utiliser la sortie structurée des outils d'inspection visuelle comme contexte pour les modèles de langage. L'extrait Python suivant montre comment préparer les résultats de la détection à partir des derniers outils d'inspection visuelle. Ultralytics YOLO11 en vue de leur utilisation dans une chaîne logique en aval ou une invite LLM.

from ultralytics import YOLO

# Load the YOLO11 model for efficient object detection
model = YOLO("yolo11n.pt")

# Run inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Extract class names to feed into a language chain
detected_items = [model.names[int(c)] for c in results[0].boxes.cls]

# Simulate a prompt context for a LangChain input
context = f" The image contains: {', '.join(detected_items)}. Please describe the scene."
print(context)

LangChain vs. termes apparentés

Il est utile de distinguer LangChain des technologies sous-jacentes qu'il orchestre :

  • LangChain vs. LLMs: Le LLM (par exemple, le GPT-4 d'OpenAI ou le Claude d'Anthropic) est le "cerveau" qui traite le texte. LangChain est le "cadre" qui relie ce cerveau à des mains (outils) et à des oreilles (sources de données).
  • LangChain vs. Prompt Engineering: L'ingénierie des invites se concentre sur l'élaboration d'une entrée de texte optimale pour obtenir une bonne réponse. LangChain automatise la gestion de ces la gestion de ces invites, ce qui permet de créer des modèles d'invites qui peuvent être remplis dynamiquement avec des données provenant d'API ou de bases de données externes. dynamiquement avec des données provenant d'API ou de bases de données externes.

Pour ceux qui souhaitent approfondir leur compréhension, la documentation officielle de documentation officielle LangChain propose des des guides complets, tandis que le dépôt GitHub de LangChain GitHub fournit le code source et les exemples de la communauté communauté. L'intégration de ces flux de travail avec des outils de vision robustes tels que ceux présentés dans la documentation d Ultralytics peut conduire à des systèmes multimodaux très performants.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant