Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

LangChain

Learn how LangChain simplifies developing AI apps with LLMs. Explore RAG, agents, and chains, and see how to [integrate YOLO26](https://docs.ultralytics.com/models/yolo26/) for advanced multimodal workflows.

LangChain is an open-source framework designed to simplify the development of applications powered by large language models (LLMs). While LLMs like GPT-4 are powerful on their own, they often operate in isolation, lacking awareness of real-time data or specific business context. LangChain acts as a bridge, allowing developers to chain together various components—such as prompts, models, and external data sources—to create sophisticated, context-aware applications. By managing the complexity of these interactions, LangChain enables artificial intelligence (AI) systems to reason about problems and take actions based on dynamic inputs.

Core Components of LangChain

The framework is built around several modular concepts that work together to enhance Natural Language Processing (NLP) workflows.

  • Chains: The fundamental building block, a chain is a sequence of calls to an LLM or other utilities. For example, a simple chain might take a user's input, format it using a prompt engineering template, and pass it to a model to generate a response. More complex chains can sequence multiple calls, where the output of one step becomes the input for the next.
  • Agents: Unlike chains, which follow a hardcoded sequence, an AI agent uses an LLM as a reasoning engine to determine which actions to take and in what order. Agents can query APIs, search the web, or access databases to answer questions that require up-to-date knowledge.
  • Retrieval: To ground model responses in factual data, LangChain facilitates Retrieval-Augmented Generation (RAG). This involves fetching relevant documents from a vector database based on user queries and feeding them into the model's context window.
  • Memory: Standard LLMs are stateless, meaning they forget previous interactions. LangChain provides memory components that allow chatbots to persist context across a conversation, mimicking the continuity of a human dialog.

Các Ứng dụng Thực tế

LangChain is instrumental in moving generative AI from experimental notebooks to production environments across various industries.

  1. Chat with Your Data (RAG): One of the most common applications is enterprise search. Businesses use LangChain to ingest internal documentation, PDFs, or technical manuals into a searchable index. When an employee asks a question, the system retrieves the relevant paragraph and feeds it to the LLM, ensuring the answer is accurate and grounded in company data rather than hallucinated. This significantly improves knowledge distillation within organizations.
  2. Phân tích đa phương thức: LangChain có thể điều phối các quy trình làm việc kết hợp văn bản với các phương thức khác, chẳng hạn như Thị giác máy tính (CV) . Ví dụ, một hệ thống an ninh có thể sử dụng tính năng phát hiện đối tượng để xác định những người không được phép truy cập và sau đó kích hoạt tác nhân LangChain để soạn thảo báo cáo sự cố và gửi email cho người giám sát.

Tích hợp với Thị giác máy tính

Sự kết hợp giữa dữ liệu hình ảnh có cấu trúc và suy luận ngôn ngữ là một lĩnh vực phát triển đầy tiềm năng. Các nhà phát triển có thể sử dụng các mô hình hiệu suất cao như Ultralytics YOLO26 để trích xuất thông tin chi tiết từ hình ảnh—chẳng hạn như số lượng đối tượng, lớp hoặc vị trí—và chuyển dữ liệu có cấu trúc này vào quy trình làm việc LangChain để phân tích sâu hơn hoặc mô tả bằng ngôn ngữ tự nhiên.

Đoạn mã Python sau đây minh họa cách trích xuất tên lớp được phát hiện bằng cách sử dụng một Ultralytics mô hình này tạo ra ngữ cảnh dựa trên văn bản có thể được đưa vào chuỗi xử lý ngôn ngữ tiếp theo.

from ultralytics import YOLO

# Load the YOLO26 model to generate structured data for a chain
model = YOLO("yolo26n.pt")

# Run inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Extract detection class names to feed into a LangChain prompt
detections = [model.names[int(c)] for c in results[0].boxes.cls]

# Format the output as a context string for an LLM
chain_input = f"The image contains the following objects: {', '.join(detections)}."
print(chain_input)

Phân biệt các thuật ngữ chính

Điều quan trọng là phải phân biệt LangChain với các công nghệ mà nó điều phối:

  • LangChain so với LLM : LLM (ví dụ: GPT-4 của OpenAI hoặc...) Anthropic Claude (của 's) là "bộ não" xử lý và tạo ra văn bản. LangChain là "khung sườn" hay cơ sở hạ tầng kết nối bộ não đó với các đường dẫn tiền xử lý dữ liệu , API và giao diện người dùng.
  • LangChain vs. Prompt Engineering: Prompt engineering focuses on crafting the optimal text input to get the best result from a model. LangChain automates the management of these prompts, allowing for dynamic prompt templates that are filled with data programmatically before being sent to the model.

For developers looking to build robust AI systems, exploring the official LangChain documentation provides deep technical dives, while the Ultralytics documentation offers the necessary tools to integrate state-of-the-art vision capabilities into these intelligent workflows. Additionally, users can leverage the Ultralytics Platform to manage the datasets and training pipelines that feed into these advanced multi-modal systems.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay