YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

埋め込み

エンベディングが人間データと機械ロジックの橋渡しをどのように行うかを知りましょう。Ultralytics YOLO26を使用してAIタスクのためのベクトル表現を生成する方法を学び、Ultralytics Platformを探求しましょう。

エンベディングは、離散変数の密で低次元の連続ベクトル表現であり、人間データと機械ロジック間の基本的な翻訳者として機能します。人工知能 (AI)の分野では、コンピューターはテキスト、画像、音声などの乱雑な非構造化データを直感的に理解できません。エンベディングは、これらの入力を高次元の数学空間に存在するベクトルとして知られる実数のリストに変換することで、この問題を解決します。オブジェクトにランダムなIDを割り当てるだけの従来のエンコーディングとは異なり、エンベディングはトレーニングを通じて学習され、「king」と「queen」のような単語や、2匹の異なる猫の画像のように、意味的に類似したアイテムがベクトル空間内で密接に配置されることを保証します。

エンベッディングの仕組み

エンベディングの生成には、特徴抽出のために設計されたニューラルネットワークに生データを入力することが含まれます。学習中、モデルは入力の本質的な特性をコンパクトな数値形式に圧縮することを学習します。例えば、写真を分析するコンピュータビジョン (CV)モデルは、単にピクセルを見るだけでなく、形状、テクスチャ、色を多次元グラフ内の特定の座標にマッピングします。類似性を測定する際、システムはコサイン類似度ユークリッド距離のようなメトリクスを使用してこれらの座標間の距離を計算します。この数学的近接性により、アルゴリズムは分類やクラスタリングのような複雑なタスクを高い効率で実行できます。

実際のアプリケーション

エンベディングは、現代のソフトウェア製品で使用される多くのインテリジェント機能のエンジンとして機能します。

  • セマンティック検索: 従来の検索エンジンは、しばしば厳密なキーワードマッチングに依存しており、ユーザーが「auto」とクエリしてもドキュメントに「car」が含まれている場合に失敗します。埋め込みは単語の背後にある意味を捉えます。検索クエリとデータベースドキュメントをベクトルとして表現することで、システムは特定の単語が異なっていても、ユーザーの意図に合致する結果を取得できます。
  • Recommendation Systems: ストリーミングサービスやEコマースサイトは、ユーザーエクスペリエンスをパーソナライズするために埋め込みを使用します。ユーザーがSF映画を視聴した場合、システムはその映画の埋め込みベクトルを特定し、データベース内で近くのベクトルを持つ他の映画を検索します。これにより、手動のタグやカテゴリだけでなく、コンテンツの類似性に基づいて正確な提案が可能になります。
  • ゼロショット学習: 高度なモデルは、テキストと画像のような異なるモダリティをリンクするために共同埋め込みを使用します。これにより、システムは、画像埋め込みをオブジェクト名のテキスト埋め込みと関連付けることで、訓練中に明示的に見たことのないオブジェクトを認識できます。

Pythonによる埋め込み生成

最先端のモデルとして YOLO26 堅牢な画像埋め込みを効率的に生成するために使用できます。以下の例は、画像から特徴ベクトルを抽出する方法を示しています。 ultralytics Python パッケージ。

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Generate embeddings for an image
# The embed() method returns the feature vector representing the image content
embedding_vector = model.embed("https://ultralytics.com/images/bus.jpg")

# Print the shape of the embedding (e.g., a vector of length 1280)
print(f"Embedding shape: {embedding_vector[0].shape}")

埋め込み vs. 関連概念

AIソリューションを効果的に実装するには、埋め込みを密接に関連する技術用語と区別することが役立ちます。

  • エンベディング vs. ベクトル検索: エンベディングはデータ表現そのもの(数値のリスト)です。ベクトル検索は、そのエンベディングに最も近い近傍を見つけるためにデータベースをクエリする後続のプロセスです。ベクトルデータベースとして知られる専門ツールが、これらのエンベディングを大規模に保存および検索するためによく使用されます。
  • エンベディング vs. トークン化: 自然言語処理(NLP)において、トークン化はテキストをより小さなチャンク(トークン)に分割する予備的なステップです。これらのトークンはその後エンベディングにマッピングされます。したがって、トークン化はデータを準備し、エンベディングはデータの意味を表します。
  • エンベディング vs. Deep Learning: Deep Learningはニューラルネットワークに基づく機械学習のより広範な分野です。エンベディングはDeep Learningアーキテクチャ内の特定の出力または層であり、多くの場合、生の入力とモデルの意思決定層との間の橋渡し役を務めます。

カスタム埋め込みを生成するためのアノテーションやモデルトレーニングを含む、データセットのライフサイクルを管理したい開発者は、Ultralytics Platformを利用できます。この包括的なツールは、データ管理からデプロイメントまでのワークフローを簡素化し、アプリケーションを動かす埋め込みが高品質で適切にキュレーションされたデータから派生していることを保証します。PyTorchTensorFlowのようなフレームワークを使用する場合でも、埋め込みを習得することは、洗練されたパターン認識システムを構築する上で重要なステップです。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。