Yolo 비전 선전
선전
지금 참여하기
용어집

로보틱스

로봇 공학, AI 및 머신러닝의 시너지 효과를 통해 자동화, 정밀성 및 지능적인 의사 결정을 통해 산업을 혁신하는 방법을 살펴보세요.

로봇공학은 공학, 컴퓨터 과학, 기술의 융합 지점에 위치한 학제적 분야로, 로봇이라 불리는 프로그래밍 가능한 기계의 설계, 제작 및 운영에 전념합니다. 전통적인 로봇공학이 반복적이고 사전 프로그래밍된 기계적 작업에 집중했던 반면, 현대적 지형은 인공지능(AI)기계학습(ML)의 통합으로 근본적으로 변모했습니다. 이러한 시너지는 기계가 센서를 통해 환경을 인지하고, 자율적으로 의사결정을 내리며, 상호작용으로부터 학습할 수 있게 하여 경직된 자동화 도구에서 복잡하고 구조화되지 않은 실제 세계 시나리오를 탐색할 수 있는 지능형 에이전트로 진화하도록 합니다.

로봇공학에서의 인식과 자율성

로봇이 통제된 케이지 외부에서 효과적으로 작동하려면 "지각" 능력, 즉 감각 데이터를 해석할 수 있는 능력이 필수적이다. 컴퓨터 비전(CV) 은 카메라, 라이다(LiDAR), 깊이 센서에서 입력되는 시각 정보를 처리하는 주요 감각 모달리티 역할을 한다. 고급 딥러닝(DL) 모델을 통해 로봇은 장애물 식별, 표지판 판독, 제품 검사 등이 가능하다. Ultralytics 같은 기술은 이 분야에서 핵심적이며, NVIDIA 플랫폼과 같은 임베디드 하드웨어에서 실시간 대응에 필요한 고속 객체 탐지 기능을 제공합니다.

로봇 자율성을 주도하는 핵심 머신러닝 기능은 다음과 같습니다:

  • Localization and Mapping: Algorithms such as Simultaneous Localization and Mapping (SLAM) enable a robot to build a map of an unknown environment while tracking its own position within it.
  • Manipulation: Precise pose estimation allows robotic arms to determine the orientation of objects, facilitating complex tasks like grasping irregular items or bin picking.
  • Decision Making: Through Reinforcement Learning, agents learn optimal strategies by interacting with their environment and receiving reward signals, a method pioneered by research groups like Google DeepMind.

실제 애플리케이션

지능형 로봇 기술의 적용은 효율성과 안전성을 향상시킴으로써 다양한 산업을 재편하고 있다.

산업 자동화 및 제조

인더스트리 4.0 패러다임에서 '협동 로봇(코봇)'은 인간과 함께 작업한다. 제조 현장에 인공지능을 도입함으로써, 이 시스템들은 이미지 분할 기술을 활용해 조립 라인에서 인간 검사관이 놓칠 수 있는 미세한 결함을 식별한다. 국제로봇연맹(IFR) 은 전 세계적으로 이러한 스마트 자동화 시스템의 밀도가 크게 증가했다고 보고한다.

물류 분야의 자율주행 모바일 로봇(AMR)

창고에서는 고정 인프라 없이 물품을 운반하기 위해 AMR을 활용합니다. 자기 테이프를 따라 움직이던 기존 자동 유도 차량(AGV)과 달리, AMR은 에지 AI 기반 자율 주행 기술을 통해 장애물을 우회하며 동적으로 경로를 재설정합니다. 이 기능은 물류 분야의 현대적 AI 핵심으로, 공급망 처리량을 최적화합니다.

로봇 공학 vs. 로보틱 프로세스 자동화(RPA)

물리적 로봇공학과 로봇 프로세스 자동화(RPA)를 구분하는 것은 매우 중요합니다. 비즈니스 환경에서 이 용어들은 종종 혼용되기 때문입니다.

  • 로봇공학은 물리적 하드웨어가 현실 세계와 상호작용하는 것을 다룹니다(예: 보스턴 다이내믹스의 스팟 로봇이 건설 현장을 점검하는 경우).
  • RPA refers to software bots that automate digital, repetitive business processes (e.g., scraping data from web forms or processing invoices).

While both aim to increase automation, robotics manipulates atoms, whereas RPA manipulates bits.

로봇 제어 비전 구현

Deploying vision models on robots often requires optimizing for low inference latency to ensure safety. Middleware like the Robot Operating System (ROS) is commonly used to bridge the gap between vision algorithms and hardware actuators. Before deployment, developers often use the Ultralytics Platform to annotate specialized datasets and manage the training lifecycle in the cloud.

다음 예시는 모바일 로봇의 일반적인 안전 요구사항인 카메라 영상에서 detect 위해 비전 모델을 사용하는 Python 방식을 보여줍니다:

from ultralytics import YOLO

# Load a lightweight YOLO26 model optimized for edge devices
model = YOLO("yolo26n.pt")

# Process a live camera feed (source=0) with a generator for efficiency
results = model.predict(source=0, stream=True)

for result in results:
    # Check if a person (class index 0) is detected with high confidence
    if result.boxes.conf.numel() > 0 and 0 in result.boxes.cls:
        print("Person detected! Triggering stop command.")
        # robot.stop()  # Hypothetical hardware interface call

향후 방향

The field is trending toward general-purpose robots capable of multitasking rather than specialized, single-function machines. Innovations in foundation models are enabling robots to understand natural language instructions, making them accessible to non-technical users. Furthermore, advances in AI in agriculture are leading to fully autonomous farming fleets that can weed, seed, and harvest with precision, reducing chemical usage and labor costs. Research from institutions like the MIT Computer Science and Artificial Intelligence Laboratory continues to push the boundaries of soft robotics and human-robot interaction.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기