Yolo 비전 선전
선전
지금 참여하기
용어집

공간 지능

공간 지능이 어떻게 AI가 3차원 세계를 인식하고 탐색할 수 있게 하는지 알아보세요. Ultralytics Ultralytics 활용해 공간 인지 시스템을 구축하는 방법을 배워보세요.

공간 지능은 인공 지능 시스템이 물리적 세계를 3차원으로 인지하고 이해하며 탐색하는 능력을 의미합니다. 기존 컴퓨터 비전이 주로 정적 스냅샷으로 2D 이미지를 분석하는 것과 달리, 공간 지능은 깊이, 기하학, 움직임, 동적 환경 내 객체 간 관계에 대한 추론을 포함합니다. 이는 기계가 단순히 픽셀을 '보는' 것을 넘어 장면의 물리적 맥락을 이해하도록 하여 실제 세계와 더 효과적으로 상호작용할 수 있게 합니다. 이 능력은 디지털 시각 데이터와 물리적 행동 사이의 가교 역할을 하며, 고급 AI 에이전트와 로봇 시스템의 초석이 됩니다.

공간 지능의 핵심 구성 요소

인간과 유사한 공간 이해력을 달성하기 위해, 인공지능 시스템은 상호 연결된 여러 기술과 개념에 의존한다.

  • 심도 인식 및 3D 재구성: 시스템은 카메라의 2D 입력을 3D 표현으로 변환해야 합니다. 단안 심도 추정과같은 기술은 단일 이미지로부터 거리를 예측할 수 있게 하며, 3D 객체 탐지는 해당 공간 내 물체의 부피와 방향을 식별하는 데 도움을 줍니다.
  • SLAM(동시 위치 추정 및 매핑): 로봇이나 드론과 같은 장치가 알려지지 않은 환경을 매핑하면서 그 안에서 자신의 위치를 track 수 있게 합니다. 현대적인 접근법은 종종 시각적 SLAM을 딥러닝과 통합하여 변화하는 조명 조건에서 견고성을 향상시킵니다.
  • 기하학적 추론: 감지 기능을 넘어, 시스템은 물리적 제약을 이해해야 합니다—컵이 탁자 위에 놓여 있다는 사실이나, 통과하려면 문을 열어야 한다는 사실을 인지해야 합니다. 이는 종종 물체나 인체 관절의 track 실시간으로 track 위한 자세 추정 기술을 수반합니다.
  • 구현된 인공지능: 이 개념은 지각과 행동을 연결합니다. 구현된 에이전트는 단순히 관찰만 하지 않습니다. 공간 데이터를 활용해 움직임을 계획하고, 장애물을 회피하며, 물체를 조작합니다. 이는 제조 현장에서 로봇 공학의 인공지능이 작동하는 방식과 유사합니다.

실제 애플리케이션

공간 지능은 복잡한 환경에서 기계가 자율적으로 작동할 수 있도록 함으로써 산업을 변화시키고 있다.

  • 자율 로봇 공학 및 물류: 창고에서 로봇은 공간 지능을 활용해 혼잡한 통로를 이동하고, 물체 감지 기술을 통해 특정 패키지를 식별하며 정밀하게 컨베이어에 배치합니다. 물품을 손상시키지 않으면서 안전하게 고정하기 위해 그리퍼와 상자 간의 공간적 관계를 계산해야 합니다.
  • 증강 현실(AR)과 혼합 현실: 스마트 글래스와 같은 기기는 공간 컴퓨팅을 활용해 디지털 콘텐츠를 물리적 세계에 고정시킵니다. 예를 들어, AR 정비 앱은 수리 지침을 특정 엔진 부품 위에 직접 중첩 표시할 수 있습니다. 이는 사용자가 고개를 움직일 때도 그래픽이 정렬된 상태를 유지하도록 하기 위해 정밀한 물체 추적이 필요합니다.

공간 지능 대 컴퓨터 비전

비록 밀접하게 연관되어 있지만, 공간 지능과 컴퓨터 비전을 구분하는 것이 유용합니다. 컴퓨터 비전은 디지털 이미지, 동영상 및 기타 시각적 입력에서 의미 있는 정보를 도출하는 데 초점을 맞춘 더 광범위한 분야입니다. 분류나 기본적인 2D 탐지와 같은 작업을 포함합니다. 공간 지능은 컴퓨터 비전의 특수한 하위 분야 또는 진화 형태로, 공간과 물리적 차원을 구체적으로 추가합니다. 이는 "이 물체는 무엇인가?"(비전)에서 "이 물체는 어디에 있으며, 어떻게 배치되어 있고, 어떻게 상호작용할 수 있는가?"(공간 지능)로 진화합니다.

Ultralytics 활용한 공간 인식 구현

개발자는 Ultralytics 활용하여 공간 지능 시스템의 기반을 구축할 수 있습니다. 엔지니어는 Ultralytics 같은 모델을 방향성 경계 상자(OBB) 탐지나 자세 추정과 같은 작업에 훈련함으로써 하류 로봇공학 또는 AR 애플리케이션에 필요한 기하학적 데이터를 제공할 수 있습니다.

다음은 3차원 공간 내에서 인간의 움직임을 이해하는 데 핵심적인 단계인 자세 추정 모델을 사용하여 공간적 키포인트를 추출하는 간단한 예시입니다:

from ultralytics import YOLO

# Load a pre-trained YOLO26 pose estimation model
model = YOLO("yolo26n-pose.pt")

# Run inference on an image to detect human keypoints
results = model("path/to/image.jpg")

# Access the keypoints (x, y coordinates and confidence)
for result in results:
    # keypoints.xy returns a tensor of shape (N, 17, 2)
    keypoints = result.keypoints.xy
    print(f"Detected keypoints for {len(keypoints)} persons.")

비전 트랜스포머(ViT)파운데이션 모델의 최근 발전은 이 분야를 더욱 가속화하여, 시스템이 광범위한 재훈련 없이도 다양한 환경에서 공간적 이해를 일반화할 수 있게 합니다. 스탠퍼드 HAIGoogle 같은 연구진의 연구가 지속됨에 따라, 차세대 스마트 기기에서 공간 지능이 표준 기능으로 자리 잡을 것으로 기대됩니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기