Yolo 비전 선전
선전
지금 참여하기
용어집

U-Net

시맨틱 분할을 위한 강력한 CNN 아키텍처인 U-Net을 알아보세요. 의료, 위성 및 자율 이미징 분야에서의 응용 분야를 알아보세요.

U-Net은 다음을 위한 전문 아키텍처입니다. 컨볼루션 신경망(CNN) 으로 알려진 정밀한 픽셀 수준의 분류를 수행하도록 설계되었습니다. 의미적 세분화. 전체 이미지에 단일 레이블을 할당하는 기존 분류 모델과 달리, U-Net은 모든 픽셀에 대한 클래스를 예측하여 클래스를 예측하여 물체의 정확한 모양과 위치를 설명하는 상세한 지도를 생성합니다. 원래는 생물의학 이미지 분석을 위해 개발되었지만, 현재는 다음과 같은 분야에서 기본 구조가 되었습니다. 컴퓨터 비전(CV) 의 기본 구조가 되었습니다. 제한된 데이터로 효과적으로 작업할 수 있는 훈련 데이터 고해상도 결과를 고해상도 결과를 얻을 수 있기 때문입니다.

U자형 아키텍처

"U-Net"이라는 이름은 표준을 수정하는 대칭적인 U자형 다이어그램에서 유래되었습니다. 자동 인코더 디자인에서 유래되었습니다. 아키텍처 은 세 가지 주요 섹션으로 구성되며, 이 섹션들은 서로 협력하여 특징을 추출하고 세부적인 분할 마스크로 이미지를 재구성합니다. 세분화 마스크로 재구성합니다.

  • 계약 경로(인코더): "U"의 왼쪽은 기존 CNN으로 작동합니다. 백본. 반복적으로 적용됩니다. 컨볼루션 및 풀링 작업 을 반복적으로 적용하여 이미지의 공간 크기를 점진적으로 줄입니다. 이 프로세스는 다운샘플링으로 알려진 이 프로세스는 피처 맵 의 수를 늘립니다, 모델이 이미지의 '무엇'에 대한 복잡하고 높은 수준의 컨텍스트를 학습할 수 있도록 합니다.
  • 확장 경로(디코더): 아키텍처의 오른쪽은 인코더를 미러링하지만 역 연산을 수행합니다. 역 연산을 수행합니다. 업 컨볼루션 레이어를 사용하여 피처의 해상도를 원래의 입력 크기로 되돌립니다. 이 업샘플링 단계는 컨텍스트를 더 높은 해상도 레이어로 컨텍스트를 고해상도 레이어로 전파하여 네트워크가 객체가 '어디에' 있는지 파악하는 데 위치를 파악하는 데 도움이 됩니다.
  • 연결 건너뛰기: U-Net의 결정적인 혁신은 다음을 사용하는 것입니다. 연결 건너뛰기. 이러한 연결은 축소 경로의 고해상도 피처 맵을 확장 경로의 확장 경로의 해당 레이어로 직접 연결합니다. 이 메커니즘은 일반적으로 다운샘플링 중에 손실되는 세분화된 공간 정보를 일반적으로 다운샘플링 중에 손실되는 세밀한 공간 정보를 보존하여 선명하고 정확한 경계를 생성할 수 있습니다.

실제 애플리케이션

U-Net은 중요한 논문에서 소개되었습니다. "U-Net: 생물의학 이미지 세분화를 위한 컨볼루션 네트워크"라는 논문에서 소개되었습니다. 에서 소개되었으며, 이후 정밀한 이미지 분할을 필요로 하는 수많은 산업 분야에 적용되었습니다. 현지화.

의료 영상 분석

의료 분야에서는 정밀도가 매우 중요합니다. U-Net은 다음 분야에서 광범위하게 사용됩니다. 의료 영상 분석 의료 영상 분석에 이상 징후 탐지를 자동화합니다. 예를 들어, MRI에서 종양을 세분화하여 방사선 전문의의 워크플로우를 돕거나 스캔 또는 현미경 이미지에서 개별 세포를 세어 방사선사의 워크플로우를 지원하여 다음 분야의 발전을 주도합니다. 의료 분야의 AI.

지리 공간 및 위성 모니터링

아키텍처는 다음을 위해서도 중요합니다. 위성 이미지 분석. U-Net 모델은 물, 산림, 도시 지역을 구분하는 토지 피복 유형을 segment 삼림 벌채를 track 삼림 벌채 또는 작물 건강 모니터링 스마트 농업.

관련 용어와의 차이점

U-Net을 이해하려면 다른 비전 작업과 구별해야 합니다:

  • U-넷 대 객체 감지: 동안 객체 감지 모델은 직사각형 직사각형 바운딩 박스를 사용하여 객체를 찾고, U-Net은 객체의 정확한 윤곽을 추적하는 픽셀 퍼펙트 마스크를 생성합니다.
  • U-Net과 인스턴스 세분화 비교: 표준 U-Net은 시맨틱 세그먼테이션을 수행하여 동일한 클래스의 모든 객체(예: 모든 자동차)를 객체(예: 모든 자동차)를 하나의 영역으로 취급합니다. 이와는 대조적입니다, 인스턴스 세분화 은 같은 클래스의 개별 객체를 구분합니다. 다음과 같은 최신 아키텍처는 YOLO11 과 같은 최신 아키텍처는 탐지 및 세분화 작업을 모두 효율적으로 처리하도록 진화했습니다.

Ultralytics 통한 최신 세분화

원시 U-Net을 구현하려면 다음과 같은 프레임워크에서 장황한 코드를 작성해야 하는 경우가 많습니다. PyTorch 또는 TensorFlow와 같은 최신 라이브러리는 이 프로세스를 간소화합니다. Ultralytics 에코시스템은 실시간 성능을 위해 유사한 아키텍처 원리를 활용하는 최적화된 세분화 모델을 제공합니다. 실시간 성능을 위해 유사한 아키텍처 원칙을 활용합니다.

다음 예는 사전 학습된 YOLO11 세분화 모델 을 사용하여 픽셀 수준 마스크를 생성하는 방법을 보여줍니다:

from ultralytics import YOLO

# Load a pre-trained YOLO11 segmentation model
model = YOLO("yolo11n-seg.pt")

# Run inference on an image to detect and segment objects
results = model("path/to/image.jpg")

# Display the results with segmentation masks overlaid
results[0].show()

이 간소화된 워크플로우를 통해 개발자는 복잡한 세분화 기능을 애플리케이션에 통합하여 다음과 같은 작업을 수행할 수 있습니다. 모델 배포 애플리케이션에 통합할 수 있습니다. 사용자 지정 데이터 세트에서 이러한 모델을 학습할 때는 다음을 사용합니다. 데이터 증강 을 사용하는 것이 과적합을 방지하기 위해 과적합을 방지하는 것이 좋습니다. 이는 정밀한 픽셀 수준 어노테이션 작업 시 흔히 발생하는 문제입니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기