YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

Liquid Neural Networks (LNNs)(リキッドニューラルネットワーク)

リアルタイムデータ適応のためのLiquid Neural Networks (LNNs)を探ります。これらの効率的なモデルがUltralytics YOLO26とどのように連携して自律型AIシステムを強化するかを学びましょう。

Liquid Neural Networks (LNNs)(リキッドニューラルネットワーク)は、C. elegans(線虫)のような単純な生物の神経系の構造に触発された、連続時間リカレントニューラルネットワーク(RNN)の非常に動的で柔軟なサブクラスです。トレーニング後に重み(またはパラメーター)が固定される従来のディープラーニングモデルとは異なり、LNNは新しい入力ストリームを処理しながら、リアルタイムでパラメーターを継続的に適応させることができます。「リキッド」な振る舞いと呼ばれるこの適応性により、ネットワークは堅牢性を維持し、変化する条件にその場で調整することができ、時系列データの処理や動的システムの制御に非常に適しています。

LNNの核となる利点は、そのパラメータ効率です。Transformer大規模言語モデル (LLM)のような大規模モデルが複雑なタスクを実行するために何十億ものパラメータと膨大な計算リソースを必要とするのに対し、LNNはわずか数十から数百のニューロンで特定のシーケンシャルタスクにおいて同等またはそれ以上の性能を達成できることがよくあります。MITのコンピューター科学・人工知能研究所 (CSAIL)のような機関の研究では、これらのコンパクトなネットワークが高い解釈可能性と効率性を提供し、トレーニングとデプロイの両方に必要な計算オーバーヘッドを削減することが実証されています。

LNNと従来のネットワークの比較

LNNと標準的なRNNはどちらも系列データを処理しますが、時間の概念の扱い方が異なります。標準的なRNNとLong Short-Term Memory (LSTM)ネットワークは離散的なタイムステップで動作し、データをフレームごと、またはステップごとに処理します。しかし、LNNは物理現象をモデル化する微分方程式と同様に、入力を連続的に処理します。この連続時間ダイナミクスにより、LNNは固定サンプリングレートに依存することなく、不規則にサンプリングされたデータを適切に処理できます。さらに、従来のモデルが学習後に学習済みパラメータを固定するのに対し、LNNの隠れ状態は動的に適応し、リアルタイム推論中に新しい、未知の異常に対してモデルが応答性を維持することを保証します。

LNNの実世界での応用

LNNは、その堅牢性、解釈可能性、および少ないパラメータ数により、連続的なデータストリームと変化する環境を伴うアプリケーションで主に使用されます。2つの注目すべき例は次のとおりです。

  • Autonomous Vehicles and Drones: LNNは、予測不可能な環境で自律ドローンを制御する上で目覚ましい成功を収めています。継続的な感覚フィードバックに基づいて 意思決定プロセスを適応させる能力により、ドローンは静的に訓練されたモデルよりもはるかに優れた方法で、変化する風の状態や動的な障害物をナビゲートできます。また、計算フットプリントが低いため、 限られた電力でドローン上で直接データを処理するエッジAIデバイスに最適です。
  • 医療時系列解析: ヘルスケア診断において、LNNはECGやEEGの読み取り値など、患者のバイタルを継続的に監視するために使用されます。医療データは不規則にサンプリングされることが多いため、LNNの連続時間特性は、患者の状態の突然の変化をdetectするのに非常に有益であり、不整脈や発作などの状態に対する予測モデリングをリアルタイムで提供します。

エコシステムにおけるLNNs

LNNは時間的・逐次的な意思決定に特化していますが、空間的なコンピュータビジョンモデルと効果的に組み合わせることで、包括的な知覚-行動システムを構築できます。例えば、Ultralytics YOLO26はビデオフレームをリアルタイムオブジェクト検出のために処理するのに利用でき、バウンディングボックス座標と分類データをダウンストリームのLiquid Neural Networkに供給します。LNNはその後、これらの連続的な座標ストリームを時間的に解釈し、AIエージェントのナビゲーションやロボット制御メカニズムを駆動します。

効率的でリアルタイムなAIパイプラインの構築を探求するには、Ultralytics Platformを使用してビジョンモデルをトレーニングおよびデプロイすることから始めることができ、モデルが軽量でエッジデプロイメントに対応していることを確認します。

from ultralytics import YOLO

# Load an Ultralytics YOLO26 nano model for spatial perception
model = YOLO("yolo26n.pt")

# Perform inference on a video stream to feed data to a sequential model
results = model.predict(source="path/to/video.mp4", stream=True)

for result in results:
    # Extract object coordinates to be passed to an LNN for temporal processing
    boxes = result.boxes.xyxy
    # (Here, 'boxes' would stream into your Liquid Neural Network for control logic)

Liquid AIのようなグループによって主導されているLNNsに関する継続的な研究は、複雑で動的な現実世界に展開された際に、人工知能(AI)システムがいかに適応性、効率性、解釈可能性に優れるかという限界を押し広げ続けています。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。