Yolo 비전 선전
선전
지금 참여하기
용어집

머신 비전

머신 비전이란 무엇인가? 이 AI 기술 분야가 어떻게 산업 자동화, 품질 관리 및 로봇 공학을 가능하게 하는지 알아보세요. 컴퓨터 비전과의 주요 차이점을 확인하세요.

머신 비전은 이미지를 분석하여 자동 검사, 공정 제어, 로봇 안내를 가능하게 하는 로봇 가이드를 가능하게 하는 엔지니어링 분야입니다. 머신 비전은 산업 자동화의 '눈' 역할을 하며, 시각적 입력을 해석하는 광학 하드웨어와 정교한 소프트웨어를 결합하여 시각적 입력을 해석하고 물리적 동작을 트리거하는 산업 자동화의 '눈' 역할을 합니다. 이 기술은 크게 의존하지만 이론적 원리에 크게 의존하지만 컴퓨터 비전(CV)의 이론적 원리에 의존하지만, 머신 비전은 실용적이고 실제적인 작업에 초점을 맞춘다는 점에서 구조화된 환경에서의 실용적인 실제 배포에 중점을 둔다는 점에서 차별화됩니다. 이 기술은 인더스트리 4.0의 초석입니다. 인더스트리 4.0의 초석으로, 스마트 팩토리가 더 빠른 속도와 정밀도로 인간 작업자가 달성할 수 있는 것보다 더 빠른 속도, 정밀도 및 일관성으로 작동할 수 있습니다.

핵심 구성 요소 및 기능

일반적인 머신 비전 시스템은 특정 작업을 안정적으로 수행하기 위해 몇 가지 중요한 구성 요소를 통합합니다. 이 프로세스는 이미지 획득으로 시작되며, 고품질 산업용 카메라와 특수 렌즈로 산업용 카메라와 특수 렌즈가 시각적 데이터를 캡처하는 데이터를 캡처합니다. 결정적으로, 이러한 시스템은 엔지니어링된 조명 기술 을 활용하여 노이즈를 억제하면서 표면 질감이나 가장자리와 같은 관련 특징을 강조합니다.

이미지가 캡처되면 컴퓨팅 장치(대개 엣지 컴퓨팅 장치 또는 엣지 컴퓨팅 디바이스 또는 스마트 카메라가 실행하는 고급 알고리즘을 실행합니다. 과거에는 이러한 시스템이 규칙 기반 시스템(예: 픽셀 수 계산)이었지만, 최신 애플리케이션은 에 점점 더 의존하고 있습니다. 인공 지능(AI)딥 러닝(DL). 다음과 같은 모델 Ultralytics YOLO11 이미지를 분석하여 패턴을 식별합니다, 결함을 detect 치수를 측정합니다. 그런 다음 시스템은 제품 수락 또는 로봇 팔 안내와 같은 결정을 내리고 로봇 팔을 안내하는 등의 결정을 내리고 이를 PLC(프로그래머블 로직 컨트롤러)에 전달합니다.

머신 비전 vs. 컴퓨터 비전

이 두 용어는 종종 같은 의미로 사용되지만, 머신 비전과 컴퓨터 비전이라는 광범위한 분야를 컴퓨터 비전과 구별하는 것이 중요합니다. 컴퓨터 비전은 컴퓨터가 이미지를 "이해"할 수 있도록 하는 데 초점을 맞춘 과학 분야입니다. 일반적으로 소셜 미디어 사진이나 감시 영상과 같은 비정형 데이터를 다루는 경우가 많습니다. It 다음과 같은 작업을 포함합니다. 이미지 분류에서 생성 AI에 이르기까지 다양한 작업을 포함합니다.

반면 머신 비전은 이러한 기술을 적용하여 산업 문제를 해결하는 것입니다. 머신 비전 시스템은 일반적으로 조명과 카메라 위치가 일관된 통제된 환경에서 작동하여 높은 신뢰성을 보장합니다. 높은 신뢰성을 보장합니다. 예를 들어, 컴퓨터 비전 모델은 공원에 있는 개를 인식하려고 노력할 수 있지만, 머신 비전 시스템은 움직이는 피스톤 링의 미세한 컨베이어 벨트에서 고속으로 움직이는 피스톤 링의 미세한 스크래치를 감지하도록 설계되었습니다.

실제 애플리케이션

머신 비전은 시각적 작업을 자동화하여 다양한 분야에서 효율성을 높입니다.

  • 자동화된 품질 관리: 제조 부문에서 제조 부문에서 머신 비전 시스템 수행 자동 광학 검사(AOI) 를 수행하여 육안으로 보이지 않는 결함을 detect . 이러한 시스템은 물체 감지 모델을 사용하여 이러한 시스템은 조립 라인에서 균열, 찌그러짐, 부품 누락과 같은 결함을 즉시 식별하여 고품질의 제품만 고품질의 제품만 시장에 출시할 수 있습니다.
  • 비전 가이드 로봇 공학: 머신 비전은 최신 로봇 공학에 필수적인 로봇 공학에 필수적입니다. 머신 비전을 통해 로봇은 쓰레기통에서 물체를 찾아서 집어 올리거나(쓰레기통 피킹) 물체를 찾아 집어 올리거나(빈 피킹) 조립을 위해 부품을 정확하게 배치할 수 있습니다. 통합을 통해 포즈 추정을 통합함으로써 로봇은 3D 공간에서 물체의 3D 공간에서 물체의 방향을 이해하여 미리 프로그래밍된 경로를 따르는 대신 환경과 동적으로 상호 작용할 수 있습니다. 동적으로 상호작용할 수 있습니다.

YOLO11 머신 비전 구현하기

최신 머신 비전은 종종 강력한 성능을 위해 최첨단 신경망을 활용합니다. 다음 예제 는 ultralytics Python 패키지를 로드하는 YOLO11 모델 생산 라인에서 부품을 검증하는 일반적인 단계인 생산 라인에서 부품을 검증하는 일반적인 단계입니다.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (or a custom-trained industrial model)
model = YOLO("yolo11n.pt")

# Run inference on an image of a manufactured component
# This step identifies objects and checks for defects based on training
results = model("production_part.jpg")

# Display the results to visualize detections and confidence scores
results[0].show()

이 간단한 워크플로는 다음과 같은 복잡한 시스템을 뒷받침합니다. 실시간 추론이 빠르게 움직이는 라인에서 제품의 즉각적인 빠르게 움직이는 라인에서 제품의 운명을 결정하는 복잡한 시스템을 지원합니다. 생산 속도를 따라잡기 위한 추론 지연 시간 속도를 유지합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기