Yolo 비전 선전
선전
지금 참여하기
용어집

LangChain

LangChain으로 AI 앱 개발을 간소화하세요! 챗봇 및 요약 도구와 같은 강력한 LLM 기반 솔루션을 간편하게 구축할 수 있습니다.

LangChain은 다음을 기반으로 하는 애플리케이션의 생성을 간소화하도록 설계된 오픈 소스 프레임워크입니다. 대규모 언어 모델(LLM)로 구동되는 애플리케이션을 간단하게 만들 수 있도록 설계된 소스 프레임워크입니다. 이 프레임워크는 다리 역할을 하며, 개발자가 GPT-4나 Llama와 같은 모델의 추론 기능을 외부 소스와 결합하여 추론 기능을 결합할 수 있게 해줍니다. '체인'에 대한 표준화된 인터페이스를 제공함으로써 다음과 같은 작업 시퀀스-연산 시퀀스-를 다른 도구에 연결합니다. LLM을 다른 도구에 연결하는 일련의 작업인 "체인"에 대한 표준 인터페이스를 제공함으로써, 환경과 동적으로 상호 작용할 수 있는 상황 인식 시스템을 동적으로 상호작용할 수 있는 컨텍스트 인식 시스템을 개발할 수 있습니다. 이 프레임워크는 지능형 챗봇에서 복잡한 의사 결정에 이르는 챗봇부터 복잡한 의사 결정 에이전트까지, 단순한 텍스트 생성을 넘어 단순한 텍스트 생성을 넘어 실행 가능한 워크플로우로 나아가는 데 필수적입니다.

핵심 개념 및 아키텍처

LangChain의 아키텍처는 특정 문제를 해결하기 위해 함께 연결될 수 있는 모듈식 구성 요소를 중심으로 이루어집니다. 특정 문제를 해결하기 위해 함께 연결될 수 있는 머신러닝 연산(MLOps).

  • 체인: 기본 구성 요소인 체인은 여러 구성 요소를 특정 순서로 연결합니다. 예를 들어, 체인은 먼저 사용자 입력에 대한 사용자 입력에 대한 데이터 전처리를 수행한 다음 입력한 다음 출력을 포맷합니다. 이는 다음과 같은 기술을 지원합니다. 프롬프트 체인, 한 단계의 출력이 다음 단계의 프롬프트 역할을 하는 의 출력이 다음 단계의 프롬프트로 사용되는 프롬프트 연쇄와 같은 기술을 지원합니다.
  • 에이전트: 체인은 하드코딩된 순서를 따르지만, AI 에이전트는 LLM을 추론 엔진으로 사용하여 어떤 작업을 어떤 순서로 수행할지 결정합니다. 에이전트는 웹을 검색하거나, 벡터 데이터베이스를 쿼리하거나 벡터 데이터베이스를 쿼리하거나 사용자의 요청에 따라 계산을 실행할 수 있습니다.
  • 메모리: 표준 LLM은 상호작용 간의 정보를 보관하지 않습니다. LangChain은 메모리 컴포넌트를 제공하여 애플리케이션이 컨텍스트 창을 유지할 수 있도록 컨텍스트 창을 유지하여 시스템이 대화에서 과거의 상호작용을 참조할 수 있게 해줍니다.

실제 애플리케이션

LangChain은 다용도의 인공 지능(AI) 솔루션 배포하는 데 중요한 역할을 합니다.

  1. 검색 증강 세대(RAG): 가장 인기 있는 사용 사례 중 하나는 데이터와 '채팅'할 수 있는 데이터와 '채팅'할 수 있는 시스템을 구축하는 것입니다. 다음을 통해 LLM을 비공개 문서에 연결함으로써 검색 증강 세대(RAG)를 통해 조직은 내부 위키, 법률 계약서 또는 기술 매뉴얼을 기반으로 질문에 답하는 어시스턴트를 만들 수 있습니다. 매뉴얼을 기반으로 질문에 답하는 어시스턴트를 만들 수 있습니다. 여기에는 텍스트를 벡터 검색 엔진으로 색인하는 벡터 검색 엔진으로 텍스트를 색인하여 LLM이 특정 출처를 인용할 수 있도록 합니다.
  2. 멀티 모달 분석: LangChain은 텍스트와 다른 모달리티를 결합하는 워크플로우를 조율할 수 있습니다. 예를 들어, 컴퓨터 비전(CV)에서 애플리케이션은 애플리케이션은 객체 감지 모델 을 사용하여 이미지의 항목을 식별한 다음 해당 구조화된 데이터를 LLM에 전달하여 창의적인 설명이나 안전 보고서.

컴퓨터 비전과 통합

랭체인과 비전 모델을 결합하면 다음과 같은 강력한 가능성이 열립니다. 에이전트 AI. 개발자는 시각적 검사 도구의 구조화된 출력을 언어 모델의 컨텍스트로 사용할 수 있습니다. 다음 Python 스니펫은 최신 탐지 결과를 준비하는 방법을 보여줍니다. Ultralytics YOLO11 모델에서 사용할 다운스트림 로직 체인 또는 LLM 프롬프트에서 사용하는 방법을 보여줍니다.

from ultralytics import YOLO

# Load the YOLO11 model for efficient object detection
model = YOLO("yolo11n.pt")

# Run inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Extract class names to feed into a language chain
detected_items = [model.names[int(c)] for c in results[0].boxes.cls]

# Simulate a prompt context for a LangChain input
context = f" The image contains: {', '.join(detected_items)}. Please describe the scene."
print(context)

랭체인과 관련 용어

랭체인과 랭체인이 조율하는 기반 기술을 구분하는 것이 도움이 됩니다:

  • 랭체인과 LLM: LLM(예: OpenAI의 GPT-4 또는 Anthropic Claude)은 텍스트를 처리하는 '두뇌'입니다. LangChain은 이 두뇌를 손(도구)과 귀(데이터 소스)에 연결하는 "프레임워크"입니다.
  • 랭체인과 프롬프트 엔지니어링: 프롬프트 엔지니어링은 좋은 반응을 얻기 위한 최적의 텍스트 입력을 만드는 데 중점을 둡니다. LangChain은 이러한 프롬프트의 이러한 프롬프트의 관리를 자동화하여 외부 API 또는 데이터베이스의 데이터로 동적으로 채워질 수 있는 외부 API 또는 데이터베이스의 데이터로 동적으로 채워질 수 있습니다.

더 깊은 이해를 원하시는 분들을 위해 공식 랭체인 문서는 포괄적인 가이드를 제공하며 LangChain GitHub 저장소는 소스 코드와 커뮤니티 예제 예제를 제공합니다. 이러한 워크플로우를 다음과 같은 강력한 비전 도구와 통합하면 Ultralytics 문서에 나와 있는 강력한 비전 도구와 통합하면 뛰어난 성능의 멀티모달 시스템을 구축할 수 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기