Yolo 비전 선전
선전
지금 참여하기
용어집

로보틱스

인공지능과 컴퓨터 비전이 현대 로봇 공학을 어떻게 주도하는지 알아보세요. 실시간 인식, 자율 주행 및 지능형 자동화를 위해 Ultralytics 배포하는 방법을 배우세요.

로봇공학은 공학, 컴퓨터 과학, 기술의 융합 지점에 위치한 학제적 분야로, 로봇이라 불리는 프로그래밍 가능한 기계의 설계, 제작 및 운영에 전념합니다. 전통적인 로봇공학이 반복적이고 사전 프로그래밍된 기계적 작업에 집중했던 반면, 현대적 지형은 인공지능(AI)기계학습(ML)의 통합으로 근본적으로 변모했습니다. 이러한 시너지는 기계가 센서를 통해 환경을 인지하고, 자율적으로 의사결정을 내리며, 상호작용으로부터 학습할 수 있게 하여 경직된 자동화 도구에서 복잡하고 구조화되지 않은 실제 세계 시나리오를 탐색할 수 있는 지능형 에이전트로 진화하도록 합니다.

로봇공학에서의 인식과 자율성

로봇이 통제된 케이지 외부에서 효과적으로 작동하려면 "지각" 능력, 즉 감각 데이터를 해석할 수 있는 능력이 필수적이다. 컴퓨터 비전(CV) 은 카메라, 라이다(LiDAR), 깊이 센서에서 입력되는 시각 정보를 처리하는 주요 감각 모달리티 역할을 한다. 고급 딥러닝(DL) 모델을 통해 로봇은 장애물 식별, 표지판 판독, 제품 검사 등이 가능하다. Ultralytics 같은 기술은 이 분야에서 핵심적이며, NVIDIA 플랫폼과 같은 임베디드 하드웨어에서 실시간 대응에 필요한 고속 객체 탐지 기능을 제공합니다.

로봇 자율성을 주도하는 핵심 머신러닝 기능은 다음과 같습니다:

  • 위치 추정 및 지도 작성: 동시 위치 추정 및 지도 작성(SLAM)과 같은 알고리즘은 로봇이 미지의 환경 내에서 자신의 위치를 추적하면서 해당 환경의 지도를 구축할 수 있게 합니다.
  • 조작: 정밀한 자세 추정 기술은 로봇 팔이 물체의 방향을 파악할 수 있게 하여 불규칙한 물체 잡기나 빈 피킹과 같은 복잡한 작업을 용이하게 합니다.
  • 의사 결정: 강화 학습을 통해 에이전트는 환경과 상호작용하고 보상 신호를 받음으로써 최적의 전략을 학습합니다. 이는 Google 같은 연구 그룹이 개척한 방법입니다.

실제 애플리케이션

지능형 로봇 기술의 적용은 효율성과 안전성을 향상시킴으로써 다양한 산업을 재편하고 있다.

산업 자동화 및 제조

인더스트리 4.0 패러다임에서 '협동 로봇(코봇)'은 인간과 함께 작업한다. 제조 현장에 인공지능을 도입함으로써, 이 시스템들은 이미지 분할 기술을 활용해 조립 라인에서 인간 검사관이 놓칠 수 있는 미세한 결함을 식별한다. 국제로봇연맹(IFR) 은 전 세계적으로 이러한 스마트 자동화 시스템의 밀도가 크게 증가했다고 보고한다.

물류 분야의 자율주행 모바일 로봇(AMR)

창고에서는 고정 인프라 없이 물품을 운반하기 위해 AMR을 활용합니다. 자기 테이프를 따라 움직이던 기존 자동 유도 차량(AGV)과 달리, AMR은 에지 AI 기반 자율 주행 기술을 통해 장애물을 우회하며 동적으로 경로를 재설정합니다. 이 기능은 물류 분야의 현대적 AI 핵심으로, 공급망 처리량을 최적화합니다.

로봇 공학 vs. 로보틱 프로세스 자동화(RPA)

물리적 로봇공학과 로봇 프로세스 자동화(RPA)를 구분하는 것은 매우 중요합니다. 비즈니스 환경에서 이 용어들은 종종 혼용되기 때문입니다.

  • 로봇공학은 물리적 하드웨어가 현실 세계와 상호작용하는 것을 다룹니다(예: 보스턴 다이내믹스의 스팟 로봇이 건설 현장을 점검하는 경우).
  • RPA는 디지털 환경에서 반복적인 업무 프로세스를 자동화하는 소프트웨어 봇을 의미합니다 (예: 웹 양식에서 데이터 추출 또는 청구서 처리).

로봇공학과 RPA 모두 자동화 증진을 목표로 하지만, 로봇공학은 원자를 조작하는 반면 RPA는 비트를 조작한다.

로봇 제어 비전 구현

로봇에 비전 모델을 배포할 때는 안전성을 보장하기 위해 낮은 추론 지연 시간을 최적화해야 하는 경우가 많습니다. 비전 알고리즘과 하드웨어 액추에이터 간의 격차를 해소하기 위해 로봇 운영 체제(ROS) 와 같은 미들웨어가 일반적으로 사용됩니다. 배포 전 개발자들은 종종 Ultralytics 활용하여 특수화된 데이터셋에 주석을 달고 클라우드에서 훈련 라이프사이클을 관리합니다.

다음 예시는 모바일 로봇의 일반적인 안전 요구사항인 카메라 영상에서 detect 위해 비전 모델을 사용하는 Python 방식을 보여줍니다:

from ultralytics import YOLO

# Load a lightweight YOLO26 model optimized for edge devices
model = YOLO("yolo26n.pt")

# Process a live camera feed (source=0) with a generator for efficiency
results = model.predict(source=0, stream=True)

for result in results:
    # Check if a person (class index 0) is detected with high confidence
    if result.boxes.conf.numel() > 0 and 0 in result.boxes.cls:
        print("Person detected! Triggering stop command.")
        # robot.stop()  # Hypothetical hardware interface call

향후 방향

해당 분야는 특수 목적의 단일 기능 기계보다는 다중 작업을 수행할 수 있는 범용 로봇으로 발전하는 추세입니다. 기초 모델의 혁신으로 로봇이 자연어 지시를 이해할 수 있게 되어 비기술 사용자도 접근할 수 있게 되었습니다. 또한 농업 분야 AI 발전으로 정밀한 제초, 파종, 수확이 가능한 완전 자율 농업 장비 군이 등장해 농약 사용량과 인건비를 절감하고 있습니다. MIT 컴퓨터과학·인공지능연구소(CSAIL ) 등의 기관 연구는 소프트 로봇공학과 인간-로봇 상호작용의 경계를 지속적으로 확장하고 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기