数発学習
医療診断や野生動物保護などの分野を変革する、最小限のデータでAIを適応させる数発学習をご覧ください。
数ショット学習(FSL)は、ほんの一握りの例から新しい概念に汎化できるモデルを構築することに焦点を当てた機械学習のサブ分野である。従来の深層学習モデル、特にコンピュータ・ビジョンでは、高い性能を達成するために、ラベル付けされた膨大な量の学習データを必要とすることが多い。FSLは、ごく少数の例から新しいオブジェクトやカテゴリを学習する人間の能力を模倣し、低データ状況でも効果的に学習できるモデルを作成することで、データ不足という課題に対処する。このため、データ収集やラベル付けにコストがかかる、時間がかかる、あるいは単に不可能なアプリケーションにとって、FSLは非常に貴重なものとなる。
数発学習の仕組み
FSLの核となる考え方は、大規模で多様なデータセットから得られる事前知識を活用し、関連する新しいタスクを迅速に学習することである。特定のカテゴリーを直接分類する学習をする代わりに、モデルはデータのより一般的な表現を学習したり、データポイントの比較方法を学習したりする。一般的なアプローチには以下が含まれる:
- メトリックベースの学習:これらの手法は、ラベル付けされた「サポート」画像とラベル付けされていない「クエリ」画像を比較するために、距離関数や類似度メトリックを学習する。クエリ画像には、最も類似したサポート画像のクラスが割り当てられる。この手法の一般的な例としては、2つの画像が同じクラスかどうかを判断するために学習するシャム・ネットワークや、メトリック空間における各クラスのプロトタイプ表現を学習するプロトタイプ・ネットワークがある。
- 最適化ベースの学習:しばしばメタ学習(または「学習する学習」)と関連付けられるこのアプローチは、モデルの最適化プロセスそのものを学習する。目標は、わずか数回の勾配降下ステップで、新しいタスクに素早くパラメータを適応させることができるモデルを開発することである。この分野で有力なアルゴリズムは、モデル無視メタ学習(Model-Agnostic Meta-Learning:MAML)である。
- 記憶ベースの学習:これらのモデルは、利用可能な数少ない例からの情報を記憶するために、外部記憶コンポーネントを使用する。新しい例が提示されると、モデルはメモリから関連する情報を取り出して予測を行う。これは、k-Nearest Neighbors(k-NN)アルゴリズムがどのように機能するかに概念的に似ている。
数発学習と関連概念
FSLを、限られたデータを扱う他の学習パラダイムと区別することは重要である:
- ゼロショット学習(ZSL):ZSLはFSLよりも極端で、高レベルの意味記述または属性のみを使用して、学習中に一度も見たことのないクラスを認識することをモデルに要求する。FSLは少なくとも1つの例を必要とするが、ZSLは何も必要としない。
- ワンショット学習(OSL):OSLはFSLの特殊な変形であり、モデルには新しいクラスごとに正確に1つのラベル付き例が提供される。これは、数ショットの枠組みの中で最も困難なシナリオである。
- 転移学習:FSLは転移学習の一種であるが、両者は同一ではない。従来の転移学習では、ImageNetのような大きなデータセットで事前に訓練されたモデルを、より小さな新しいデータセットで微調整することが多い。FSLは、新しいデータセットが非常に小さい(例えば、クラスあたり10例以下)シナリオのために特別に設計されています。Ultralytics YOLO11のようなモデルが、どのように事前学習された重みを使って転移学習を行うかは、モデルトレーニングのドキュメントをご覧ください。
実世界での応用
FSLは、データが乏しい特殊な領域で特に有用である。
- 医用画像診断における希少疾患診断:希少疾患の場合、モデルトレーニングのために何千もの患者スキャンを収集することは、しばしば実行不可能である。FSLを使えば、一般的な医療画像の大規模なデータセットで事前に訓練されたモデルを、ほんの一握りの確認された症例を使って希少疾患の兆候を識別するために適応させることができる。これにより、医用画像解析のための診断ツールの開発が加速される。
- 工業用欠陥検出 製造業では、新しい製品ラインにユニークでまれな欠陥がある場合があります。何千もの欠陥例を収集するために生産を一時停止する代わりに、オブジェクト検出のためのFSLモデルは、品質管理を自動化し、効率を改善し、無駄を削減するために、少数のサンプルで迅速に訓練することができます。Ultralytics HUBのようなプラットフォームは、このような特殊なデータセットを管理し、モデルの展開を加速するのに役立ちます。
課題と今後の方向性
FSLは有望であるにもかかわらず、大きな課題に直面している。主なハードルはオーバーフィッティングを防ぐことである。なぜなら、モデルは汎化を学習する代わりに、少数の例を簡単に記憶してしまうからである。モデルの性能は、提供されるサポート例の質と代表性に非常に敏感である。
スタンフォード大学、Google AI、Meta AIなどの機関が推進する現在進行中の研究は、より頑健なメタ学習アルゴリズムの作成と、教師なしまたは自己教師ありの学習テクニックを事前学習にうまく活用することに重点を置いている。これらのアプローチを組み合わせることで、より柔軟でデータ効率の高いAIシステムを構築し、データに制約のある環境で可能なことの限界を押し広げることを目指している。PyTorchや TensorFlowのような高度なフレームワークは、研究者がこれらの最先端の手法を探求するために必要なツールを提供する。