Yolo 비전 선전
선전
지금 참여하기
용어집

구현된 인공지능

체화된 인공지능을 탐구하고 지능형 시스템이 물리적 세계와 상호작용하는 방식을 알아보세요. Ultralytics YOLO26으로 로봇 지각 능력을 강화하는 방법을 발견하세요.

구현형 인공지능은 수동적인 알고리즘에서 벗어나 물리적 또는 시뮬레이션된 3D 환경 내에서 인지하고 추론하며 상호작용할 수 있는 지능형 시스템으로의 주요 전환을 의미합니다. 순수하게 정적 데이터셋으로 작동하는 기존 머신러닝 모델과 달리, 이러한 시스템은 물리적 로봇 섀시든 가상 아바타든 '신체'를 보유하여 행동을 실행하고 지속적인 환경 피드백으로부터 학습할 수 있습니다. 센서 입력과 지능적 의사결정을 결합함으로써, 구현된 에이전트는 디지털 계산과 현실 세계 실행 사이의 간극을 메웁니다.

구현된 시스템이 세계를 인식하는 방식

이러한 동적 시스템의 핵심에는 에이전트가 공간적으로 주변 환경을 이해할 수 있게 하는 고급 컴퓨터 비전이 자리 잡고 있습니다. 안전하고 효과적으로 이동하기 위해, 신체화된 에이전트는 실시간 물체 탐지 및 지속적인 자세 추정에 크게 의존합니다. 개발자가 이러한 에이전트를 위한 신경 경로를 구축할 때, 복잡한 공간 데이터를 처리하기 위해 PyTorch 딥러닝 프레임워크나 TensorFlow 도구를 통합하는 경우가 많습니다.

진정한 자율성을 달성하기 위해 이러한 시스템들은 강력한 실시간 추론 엔진과 함께 비전-언어 모델을 점점 더 많이 활용하고 있습니다. 이를 통해 AI는 컵을 인식할 뿐만 아니라 "테이블 가장자리에 있는 빨간 컵을 집어 올려라"와 같은 복잡한 지시도 이해할 수 있습니다. 스탠퍼드 대학의 인간 중심 인공지능 연구소(HAI)와 같은 기관들의 연구는 이러한 에이전트들이 다중 감각 데이터를 통합하는 방식의 한계를 계속해서 넓혀가고 있다.

관련 인공지능 용어 구분하기

이 분야를 이해하려면 밀접하게 관련된 개념들과 구별해야 합니다:

  • 로봇공학: 로봇공학은 기계적 하드웨어, 액추에이터, 모터 제어에 중점을 둡니다. 구현된 인공지능(Embodied AI)은 하드웨어를 자율적으로 만드는 인지 소프트웨어 계층을 제공하며, 보스턴 다이내믹스의 아틀라스 로봇과 같은 프로젝트에서 이를 확인할 수 있습니다.
  • 물리적 AI: 흔히 혼용되지만, 물리적 AI는 반드시 실물 하드웨어를 요구합니다. 구체화된 AI는 더 광범위하여 NVIDIA 아이작 로봇 플랫폼과 같은 시뮬레이션된 3D 물리 환경에서 훈련된 가상 에이전트까지 포함합니다.
  • AI 에이전트: 기존 AI 에이전트는 디지털 공간(예: 웹 브라우징 또는 코드 작성)에서 작동합니다. 신체화된 에이전트는 공간적 차원성, 물리적 제약 조건 및 연속적인 감각 흐름을 처리하도록 특화되어 있습니다.

실제 애플리케이션

인지적 추론과 물리적 행동의 통합은 여러 산업 분야에 걸쳐 혁신적인 응용을 이끌어냈으며, 이는 ACM 디지털 라이브러리의 인공지능 연구 자료에 광범위하게 기록되어 있다.

  • 자율주행 차량: 자율주행 자동차는 도시 도로를 주행하기 위해 구현된 지능에 의존합니다. 이들은 지속적인 라이다 및 카메라 데이터를 처리하여 교통 표지판과 보행자 움직임을 해석하는데, 이는 웨모의 자율주행 기술이 역동적인 도시 환경과 안전하게 상호작용하는 방식과 유사합니다.
  • 스마트 제조: Ultralytics 모델이 탑재된 로봇 팔이 복잡한 조립 라인 작업을 수행합니다. 이들은 결함 부품을 동적으로 식별, 선별 및 분류하며, 최근 딥마인드 로봇 연구에서 탐구된 원리를 입증합니다.
  • 농업용 드론: 무인 항공기는 공간 인식을 활용해 작물 건강 상태를 모니터링하고 필요한 곳에만 자원을 지능적으로 살포함으로써 낭비를 줄이고 수확량을 증가시킵니다.

구현된 에이전트를 위한 지각 구축

이러한 물리적 시스템을 구축하는 개발자들은 종종 Ultralytics 활용하여 동적 훈련 데이터에 주석을 달고 저전력 하드웨어에 직접 경량 에지 AI 모델을 원활하게 배포합니다.

다음은 로봇 에이전트가 시각 모델을 활용하여 환경 내 detect 객체를 지속적으로 detect 방법을 보여주는 Python .

from ultralytics import YOLO

# Load the lightweight YOLO26 model designed for real-time edge hardware
model = YOLO("yolo26n.pt")

# Perform continuous object detection on a robotic camera feed
results = model.predict(source="camera_feed.mp4", stream=True)

# Process the spatial bounding boxes to guide robotic interaction
for r in results:
    print(f"Detected {len(r.boxes)} objects ready for physical interaction.")

하드웨어 설계 및 인지 모델링 분야가 성숙해짐에 따라— Anthropic AI 안전성 연구와 OpenAI의 최신 추론 모델과같은 정렬 노력에 의해 주도되며— 구현된 시스템은 연구실 환경에서 일상 환경으로의 전환을 지속할 것이며, 이는 IEEE Spectrum의 로봇 공학 보도에서 자주 강조되듯이.

Ultralytics YOLO 파워업

프로젝트에 필요한 고급 AI 비전을 확보하세요. 오늘 목표에 맞는 라이선스를 찾아보세요.

라이선스 옵션 살펴보기