プロンプトチューニングで大規模言語モデルを効率的に最適化—コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。
プロンプトチューニングは、大規模言語モデル(LLM)のような大規模な事前学習済みモデルを、元のモデルの重みを変更せずに新しいタスクに適応させるための、強力かつ効率的な手法です。これは、Parameter-Efficient Fine-Tuning(PEFT)の一形態であり、基本モデル内の数十億のパラメータを固定したまま、タスク固有の「ソフトプロンプト」の小さなセットを学習します。これらのソフトプロンプトは、人間が読めるテキストではなく、学習可能な埋め込みであり、入力に付加され、特定のダウンストリームタスクに対して、固定されたモデルが望ましい出力を生成するように誘導します。このアプローチは、元のGoogle AIの研究論文に記載されているように、タスク固有の適応に必要な計算コストとストレージを劇的に削減します。
基本的な考え方は、数十億のパラメータを持つモデル全体を再トレーニングまたはファインチューニングするのではなく、タスクごとに数千または数百万の追加パラメータ(ソフトプロンプト)のみをトレーニングすることです。これにより、完全なモデルコピーを作成せずに、単一の事前トレーニング済みモデルに対して、異なるタスクに合わせて調整された、多くの特殊な「プロンプトモジュール」を作成することが可能になります。この方法は、新しいタスクでトレーニングされたときにモデルが以前に学習した情報を忘れてしまう壊滅的忘却を軽減するのにも役立ちます。
プロンプトチューニングは、広範な専門アプリケーション向けに、強力な基盤モデルのカスタマイズを可能にします。
プロンプトチューニングと類似の手法を区別することが重要です。
プロンプトチューニングは、主に自然言語処理(NLP)のLLMに適用されますが、効率的な適応の基本原則は、人工知能(AI)全体に関連しています。コンピュータビジョン(CV)では、カスタムデータセットでのUltralytics YOLOのようなモデルの完全なファインチューニングが物体検出のようなタスクで一般的ですが、PEFTメソッドは、特に大規模なマルチモーダルモデルで勢いを増しています。Ultralytics HUBのようなプラットフォームは、さまざまなAIモデルのトレーニングとデプロイメントのプロセスを効率化し、将来的にそのような効率的なテクニックを組み込む可能性があります。