Yolo 深圳
深セン
今すぐ参加
用語集

プロンプトチューニング

プロンプトチューニングで大規模言語モデルを効率的に最適化—コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。

プロンプト・チューニングは、事前に訓練された基礎モデルを特定の下流タスクに適応させるための戦略である。 基礎モデルを特定の下流タスクに適応させるための戦略である。 ネットワーク全体を再トレーニングするための計算コストをかけずに、特定の下流タスクに適応させるための戦略である。その一形態として パラメータ効率的微調整(PEFT)の一形態として、この手法は、元のモデルの膨大なパラメータを凍結し、"ソフトプロンプト "として知られる学習可能なベクトルの小さなセットのみを最適化する。 ベクターのみを最適化する。プロンプトエンジニアリングで使用される人間が読めるテキストとは異なり、ソフトプロンプトは数値である。 プロンプトエンジニアリングで使用される人間が読めるテキストとは異なり、ソフトプロンプトは数値 入力データに付加される数値の埋め込みである。これらの 学習されたベクトルは、フローズンモデルが所望の出力を生成するようガイドし、完全なモデル学習と比較して、ストレージとメモリの要件を大幅に削減する。 大幅に削減する。このアプローチ により、単一の共有コアモデルを使用して、多くの異なる専門タスクに対応することが可能になる。

プロンプト・チューニングの仕組み

プロンプト・チューニングの背後にあるメカニズムは、モデル・アーキテクチャを変更するのではなく、入力を変更するという概念に依存している。典型的な機械学習(ML)のワークフローでは 典型的な機械学習(ML)ワークフローでは ラージ言語モデル(LLM)やビジョン言語モデルを含む典型的な機械学習(ML)ワークフローでは、入力テキストや画像は数値の列に変換される。 視覚言語モデルを含む典型的な機械学習(ML)ワークフローでは、入力テキストや画像は数値ベクトルの列に変換される。プロンプトチューニングでは、学習可能な ベクトル(ソフトプロンプト)が挿入される。

バックプロパゲーションの学習段階では 勾配降下アルゴリズムはこれらの新しいベクトルだけを更新する。 ベクトルのみを更新し、バックボーンにある数十億のモデルの重みはそのままにする。 バックボーンにある何十億ものモデルの重みはそのままにしておく。この方法は Google AI モデルが大きくなるにつれて、迅速なチューニングが完全なファインチューニングの性能に匹敵することを実証している。

実際のアプリケーション

プロンプトチューニングは、高度な 高度な人工知能(AI)を 産業界に変革をもたらします。

  • パーソナライズされたカスタマーサポート:大企業では、さまざまな部門(請求書発行、請求書管理、顧客管理など)に チャットボットを導入する必要があります、 テクニカルサポート、セールス)。機能ごとに個別の大規模なモデルをホストする代わりに、1つのフローズン GPT-4スタイルのモデルを使用し、部門ごとに訓練された軽量のソフトプロンプトを切り替えることができます。 プロンプトを切り替えることができます。 ナレッジベースを切り替えることができる。これにより 推論の待ち時間とインフラストラクチャのコストを削減します。
  • 専門的な医療分析医療におけるAI 医療におけるAIでは、プライバシーとデータ不足が 課題である。病院は汎用の 医療画像解析モデルを用いて まれな腫瘍のような特定の症状に対する小さなソフトなプロンプトを訓練することができる。これにより、コアモデルの一般的な診断能力を維持しながら、ニッチなタスクに適応させることができる。 ニッチなタスクに適応させながら、コアモデルの一般的な診断能力を維持することができます。 伝達学習の原理を効率的に利用することができます。

プロンプト・チューニングと関連用語の違い

プロンプトチューニングを類似の適応技術と区別することは極めて重要である:

  • プロンプトエンジニアリング:これは、モデルを誘導するためのテキスト入力(ハードプロンプト)を手動で作成することを含む。トレーニングやパラメータ 更新を必要としない。対照的に、プロンプトチューニングは、教師あり学習によって最適な数値埋め込みを学習する自動化されたプロセスである。 教師あり学習
  • 微調整:従来のファインチューニングでは、モデルのパラメータのすべて、あるいはほとんどを更新するため、タスクごとにモデルのコピーが必要だった。 タスクごとにモデルのコピーが必要になる。プロンプト・チューニングでは、バックボーンはフリーズしたままなので、ストレージを節約できます。 ストレージを節約できます。
  • LoRA(ローランク・アダプテーション):どちらもPEFT手法であるが、LoRAは学習可能な低ランク行列をモデルの内部層(多くの場合、注意メカニズム)に注入する。 アテンションメカニズム)に注入する。 は入力埋め込み層のみに焦点を当てる。

実施コンセプト

プロンプト・チューニングが最も有名なのは 自然言語処理(NLP)である、 大きなバックボーンを凍結し、小さなtensor最適化するという根本的な機械的コンセプトは、ディープラーニング(DL)において普遍的であるtensor ディープラーニング(DL)に普遍的である。以下はその例である。 PyTorchの基本的なロジックを示します。 モデルパラメータを凍結し、学習可能なプロンプトパラメータを作成します。

import torch
import torch.nn as nn

# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)

# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
    param.requires_grad = False

# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)

# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)

このコードは、開発者がシステムのどの部分を学習させるかを制御する方法を示している。 ニューラル・ネットワークの最適化の重要な側面である。標準的なコンピューター・ビジョン のような効率的なモデルは Ultralytics YOLO11のような効率的なモデルは のような効率的なモデルは、通常、カスタムデータセット上で標準的なファインチューニングを使用してトレーニングされる、 しかし、効率性の原則は、YOLO26のような将来のアーキテクチャの開発を促進する。 YOLO26

コンピュータ・ビジョンとの関連性

プロンプト・チューニングは コンピュータビジョン マルチモーダルモデル CLIP。研究者は 学習可能なピクセルパッチやトークンを入力画像に追加して、視覚変換器を新しい物体検出タスクに適応させる「視覚的プロンプトチューニング」を研究している。 視覚変換器を新しい物体検出タスクに適応させる 重たい特徴抽出器を再トレーニングすることなく。これは、言語モデルで見られる効率向上を反映したもので、次のような業界トレンドに沿ったものです。 を目指す業界のトレンドと一致する。 グリーンAI を目指す業界のトレンドに沿ったものです。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加