Yolo 深圳
深セン
今すぐ参加
用語集

LangChain

LangChainでAIアプリ開発を簡素化しましょう!チャットボットや要約ツールのような、強力なLLM駆動のソリューションを簡単に構築できます。

LangChainは、大規模言語モデル(LLM)によるアプリケーションの作成を簡素化するために設計されたオープンソースのフレームワークです。 ラージ・ランゲージ・モデル(LLM)。これは GPT-4やLlamaのようなモデルの推論機能を、外部の計算やデータソースと組み合わせることを可能にします。 を組み合わせることを可能にします。チェーン」(LLMを他のツールにリンクする一連の操作)のための標準化されたインタフェースを提供することで、LLMを他のツールにリンクすることができる。 LLMを他のツールにリンクする操作のシーケンスである "チェーン "のための標準化されたインタフェースを提供することで、LangChainは環境と動的に相互作用できるコンテキストを意識したシステムの開発を可能にする。 環境と動的に相互作用することができる。このフレームワークは、インテリジェントな このフレームワークは、インテリジェントなチャットボットから複雑な意思決定エージェントまで、高度なツールを構築するために不可欠である。 このフレームワークは、インテリジェントなチャットボットから複雑な意思決定エージェントまで、高度なツールを構築するために不可欠です。

コアコンセプトとアーキテクチャ

LangChainのアーキテクチャーは、特定の問題を解決するために連結可能なモジュラー・コンポーネントを中心に展開される。 現代の 機械学習オペレーション(MLOps)の中核をなすものである。

  • チェーン:基本的な構成要素であるチェーンは、複数のコンポーネントを特定の順序で接続する。 例えば、チェーンは最初に 例えば、チェーンはまずユーザー入力のデータ前処理を行い、それを LLMに送り、出力をフォーマットする。これは次のようなテクニックをサポートする。 プロンプト・チェイニングのようなテクニックをサポートする。 の出力が次のステップのプロンプトとなる。
  • エージェントチェーンがハードコードされたシーケンスに従うのに対して AIエージェントは推論エンジンとしてLLMを使い を推論エンジンとして使う。エージェントは、ウェブを検索したり、ベクトル・データベースに問い合わせたり、あるいは ベクター・データベースに問い合わせる。 ユーザーの要求に基づいて計算を実行する。
  • 記憶:標準的なLLMは相互作用の間の情報を保持しません。LangChainはメモリ コンポーネントを提供する。 コンテキスト・ウィンドウを保持することができます。 システムは会話中の過去のインタラクションを参照することができます。

実際のアプリケーション

LangChainは汎用性の高い 人工知能(AI)ソリューションを ソリューションを展開しています。

  1. 検索拡張世代(RAG):最も一般的なユースケースのひとつは、データと「チャット」できるシステムを構築することである。 チャットができるシステムを構築することです。LLMを個人文書に接続することで 検索-拡張生成(RAG)を介してLLMを個人文書に接続することで、組織は、社内Wiki、法的契約書、または技術マニュアルに基づいて質問に答えるアシスタントを作成することができます。 マニュアル。これには、テキストを ベクトル検索エンジンにテキストをインデックス化する。 LLMは答えを幻視するのではなく、特定の情報源を引用することができる。
  2. マルチモーダル分析:LangChainは、テキストと他のモダリティを組み合わせたワークフローをオーケストレーションできます。 例えば、コンピュータビジョン(CV)の場合 アプリケーションはオブジェクト検出モデル 構造化されたデータをLLMに渡すことで、創造的な説明や安全レポートを生成することができます。 安全報告書を生成する。

コンピュータ・ビジョンとの統合

LangChainとビジョンモデルの組み合わせは、エージェントAIの強力な可能性を引き出す エージェントAI。 開発者は、視覚検査ツールからの構造化出力を言語モデルのコンテキストとして使用することができます。以下の Python スニペットは、最新の Ultralytics YOLO11モデルを下流のロジックチェーン またはLLMプロンプトで使用するために、最新のUltralytics YOLO11モデルの検出結果を準備する方法を示します。

from ultralytics import YOLO

# Load the YOLO11 model for efficient object detection
model = YOLO("yolo11n.pt")

# Run inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Extract class names to feed into a language chain
detected_items = [model.names[int(c)] for c in results[0].boxes.cls]

# Simulate a prompt context for a LangChain input
context = f" The image contains: {', '.join(detected_items)}. Please describe the scene."
print(context)

LangChainと関連用語の比較

LangChainを、それがオーケストレーションする基礎技術から区別することは有益である:

  • LangChainとLLMの比較:LLM(例えばOpenAIのGPT-4やAnthropicClaude)はテキストを処理する「脳」である。LangChainは この脳を手(ツール)や耳(データソース)につなぐ「フレームワーク」である。
  • LangChainとプロンプトエンジニアリングの比較:プロンプトエンジニアリングは、良い反応を得るために最適なテキスト入力を作成することに重点を置いています。LangChainはプロンプトの管理を自動化します。 プロンプトの管理を自動化します。 外部APIやデータベースからのデータを動的に入力することができます。

理解を深めたい方のために 公式LangChainドキュメント 包括的なガイド LangChainのGitHubリポジトリはソースコードとコミュニティ の例があります。にあるような堅牢なビジョン・ツールとこれらのワークフローを統合することで、非常に高性能なマルチモーダル解析が可能になります。 Ultralytics ドキュメントにあるような堅牢なビジョンツールと統合することで、非常に高性能なマルチモーダルシステムを構築することができます。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加