Yolo 비전 선전
선전
지금 참여하기
용어집

액체 신경망(LNN)

실시간 데이터 적응을 위한 액체 신경망(LNN)을 살펴보세요. 이 효율적인 모델이 Ultralytics YOLO26과 어떻게 결합되어 자율 AI 시스템을 구동하는지 알아보세요.

유동 신경망(LNN)은 C. elegans 선충과 같은 단순한 생물의 신경계 구조에서 영감을 받은, 매우 역동적이고 유연한 연속 시간 재귀 신경망(RNN)의 하위 분류입니다. 훈련 후 가중치 (또는 매개변수)가 고정되는 기존 딥러닝 모델과 달리, LNN은 새로운 입력 스트림을 처리하는 동안 실시간으로 매개변수를 지속적으로 조정할 수 있습니다. 흔히 "유동적" 행동이라고 불리는 이러한 적응성 덕분에 네트워크는 견고성을 유지하면서 변화하는 상황에 즉각적으로 대응할 수 있어, 시계열 데이터 처리와 동적 시스템 제어에 매우 적합합니다.

LNN의 핵심 장점은 매개변수 효율성입니다. 트랜스포머 ( Transformers )나 대규모 언어 모델(LLMs) 과 같은 대형 모델은 복잡한 작업을 수행하기 위해 수십억 개의 매개변수와 막대한 계산 자원을 필요로 하는 반면, LNN은 수십 개에서 수백 개의 뉴런만으로 특정 순차적 작업에서 이에 필적하거나 더 뛰어난 성능을 발휘하는 경우가 많습니다. MIT의 컴퓨터 과학 및 인공 지능 연구소(CSAIL) 와 같은 연구 기관들의 연구에 따르면, 이러한 소형 네트워크는 높은 해석 가능성과 효율성을 제공하여 훈련과 배포 모두에 필요한 계산 오버헤드를 줄여준다는 사실이 입증되었습니다.

LNN과 기존 신경망의 차이점

LNN과 표준 RNN 모두 순차적 데이터를 처리하지만, 시간 개념을 다루는 방식은 다릅니다. 표준 RNN과 및 장기 단기 기억(LSTM) 네트워크는 이산 시간 단계로 작동하며, 이는 데이터를 프레임 단위로 또는 단계별로 처리한다는 것을 의미합니다. 반면 LNN은 물리 현상을 모델링하는 미분 방정식과 유사하게 입력을 연속적으로 처리합니다. 이러한 연속 시간 동적 특성은 LNN이 고정된 샘플링 속도에 의존하지 않고도 불규칙하게 샘플링된 데이터를 원활하게 처리할 수 있게 해줍니다. 또한, 기존 모델은 훈련 후 학습된 매개변수를 고정하는 반면, LNN의 숨겨진 상태는 동적으로 적응하여 실시간 추론 중에 모델이 새로운, 이전에 보지 못한 이상 현 상에 지속적으로 대응할 수 있도록 보장합니다.

LNN의 실제 적용 사례

LNN은 탄력성, 해석 가능성, 적은 매개변수 수 덕분에 주로 지속적인 데이터 스트림과 변화하는 환경이 포함된 애플리케이션에 사용됩니다. 대표적인 두 가지 예로는 다음과 같습니다:

  • 자율주행 차량과 드론: LNN은 예측 불가능한 환경에서 자율 드론을 제어하는 데 놀라운 성과를 보여주었습니다. 지속적인 센서 피드백을 바탕으로 의사결정 과정을 적응시키는 이 모델의 능력 덕분에, 드론은 정적 학습 모델보다 훨씬 더 효과적으로 변화하는 풍향 조건이나 동적인 장애물을 헤쳐 나갈 수 있습니다. 또한 낮은 연산 부하 덕분에 전력 공급이 제한적인 엣지 AI 기기에 이상적이며, 드론에서 직접 데이터를 처리할 수 있습니다.
  • 의료 시계열 분석: 의료 진단 분야에서 LNN은 심전도(ECG)나 뇌파(EEG) 측정값과 같은 환자의 생체 신호를 지속적으로 모니터링하는 데 사용됩니다. 의료 데이터는 종종 불규칙적으로 샘플링되기 때문에, LNN의 연속 시간 특성은 환자의 상태에 발생하는 갑작스러운 변화를 감지하는 데 매우 유용하며, 부정맥이나 발작과 같은 증상에 대한 실시간 예측 모델링을 제공합니다.

생태계 내의 LNN

LNN은 시간적·순차적 의사결정에 특화되어 있지만, 공간적 컴퓨터 비전 모델과 효과적으로 결합하여 포괄적인 지각-행동 시스템을 구축할 수 있습니다. 예를 들어, Ultralytics 활용하여 동영상 프레임을 처리해 실시간으로 물체를 탐지하고, 바운딩 박스 좌표와 분류 데이터를 하류에 위치한 Liquid Neural Network에 입력할 수 있습니다. 그러면 LNN은 시간에 따른 이러한 연속적인 좌표 스트림을 해석하여 AI 에이전트의 내비게이션이나 로봇 제어 메커니즘을 구동합니다.

효율적인 실시간 AI 파이프라인 구축을 모색하려면, 먼저 Ultralytics 사용하여 비전 모델을 훈련하고 배포함으로써, 모델이 가볍고 엣지 환경에 배포할 준비가 되어 있는지 확인할 수 있습니다.

from ultralytics import YOLO

# Load an Ultralytics YOLO26 nano model for spatial perception
model = YOLO("yolo26n.pt")

# Perform inference on a video stream to feed data to a sequential model
results = model.predict(source="path/to/video.mp4", stream=True)

for result in results:
    # Extract object coordinates to be passed to an LNN for temporal processing
    boxes = result.boxes.xyxy
    # (Here, 'boxes' would stream into your Liquid Neural Network for control logic)

Liquid AI와 같은 연구진이 주도하는 LNN에 대한 지속적인 연구는 복잡하고 역동적인 현실 세계에 적용될 때 인공지능(AI) 시스템이 얼마나 유연하고 효율적이며 해석 가능한지 그 한계를 계속해서 넓혀가고 있습니다.

함께 AI의 미래를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요