NLPとMLにおけるトークン化のパワーをご覧ください。テキストをトークンに分割することで、感情分析やテキスト生成のようなAIタスクがどのように強化されるかを学びます。
トークン化とは、テキスト、コード、画像などの生データのストリームを、トークンと呼ばれるより小さな個別の単位に変換する基本的なプロセスです、 トークンとして知られる個別の単位に変換する基本的なプロセスです。この変換は データ前処理パイプラインの重要な橋渡し役として機能する。 構造化されていない人間の情報を、以下のような数値フォーマットに変換する。 人工知能(AI)システムが解釈できる 解釈する。複雑なデータを管理可能な断片に分解することで、トークン化は以下を可能にします。 機械学習モデルがパターンを識別し、意味的関係を学習し 意味的関係を学習し、高度な推論タスクを実行できるようになります。この最初のステップがなければ 現代のテクノロジーを支えるニューラルネットワークは トレーニングに必要な膨大なデータセットを処理できなくなります。
この2つの用語は近接して使われることが多いが、方法と結果を区別することが重要である。
トークン化の用途は、処理されるデータの種類によって大きく異なります。 データのベクトル表現である埋め込みを生成するという最終的な目的は変わりません。 を生成するという最終的な目的は変わりません。
自然言語処理 自然言語処理(NLP)、 このプロセスでは、文章を単語、サブワード、または文字に分割する。初期の方法では、単にテキストを でテキストを分割するだけだったが、最近の 最近の大規模言語モデル(LLM)では バイトペアエンコーディング(BPE)のような高度なアルゴリズムを利用することで のような高度なアルゴリズムを利用している。これにより GPT-4のようなモデルは、無限の辞書を必要とすることなく、複雑な語彙を処理することができます。 無限の辞書を必要としません。
従来、コンピュータ・ビジョン(CV)は ピクセル・アレイを使用していた。しかし ヴィジョン・トランスフォーマー(ViT)の台頭により 画像を固定サイズのパッチ(例えば16x16ピクセル)に分割するという概念を導入した。これらのパッチは平坦化され、視覚的トークンとして扱われる。 視覚的トークンとして扱われる。 自己注意を用いて、異なる画像領域の重要性を評価することができる。 文章がどのように処理されるかに似ている。
トークン化は単なる理論的概念ではなく、日常的に使用されるAIアプリケーションの多くを支えている。
次の例では、次の方法を示します。 ultralytics の中で暗黙のトークン化を利用している。
YOLOモデル ワークフローその
.set_classes() メソッドは、モデルの検出フォーカスを動的に導くためにテキストリストをトークン化します。
from ultralytics import YOLO
# Load a pre-trained YOLO-World model
model = YOLO("yolov8s-world.pt")
# Define custom classes; the model tokenizes these strings to search for specific objects
model.set_classes(["backpack", "person"])
# Run prediction on an image
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Show results (only detects the tokenized classes defined above)
results[0].show()
トークン化戦略の選択は 精度と計算効率に直接影響する。非効率的な なトークン化は、自然言語処理における「語彙不足」のエラーや、画像セグメンテーションにおける 画像セグメンテーションでは詳細が失われる。次のようなフレームワークがあります。 PyTorchや TensorFlowのようなフレームワークは、このステップを最適化する柔軟な ツールを提供している。最新の YOLO11-効率的なデータ処理により、モデルは リアルタイム推論を実行することができる。 クラウドGPUからエッジ・デバイスまで、さまざまなハードウェア上でリアルタイム推論を実行することができます。


