신약 개발, 암 연구 또는 개인 맞춤형 의학의 많은 혁신은 세포를 명확하게 보는 것에서 시작됩니다. 과학자들은 세포의 행동을 추적하고, 약물을 평가하고, 새로운 치료법을 탐색하기 위해 선명한 이미지에 의존합니다.
하나의 현미경 이미지에는 수천 개의 세포가 겹쳐져 있어 경계를 파악하기 어려울 수 있습니다. 세포 분할은 정확한 분석을 위해 각 세포를 명확하게 분리하여 이 문제를 해결하는 것을 목표로 합니다.
하지만 세포 분할이 항상 간단한 것은 아닙니다. 한 번의 연구로 수천 개의 상세한 현미경 이미지가 생성될 수 있으며, 수작업으로 검토하기에는 너무 많은 양입니다. 데이터 세트가 증가함에 따라 과학자들은 세포를 분리하고 연구하는 더 빠르고 신뢰할 수 있는 방법이 필요합니다.
실제로 많은 과학자들이 기계가 시각 정보를 해석하고 분석할 수 있도록 하는 AI의 한 분야인 컴퓨터 비전을 채택하고 있습니다. 예를 들어, 인스턴스 세분화를 지원하는 Ultralytics YOLO11과 같은 모델은 세포를 분리하고 하위 세포 구조까지 감지하도록 학습할 수 있습니다. 이를 통해 몇 시간이 아닌 몇 초 만에 정밀한 분석이 가능해져 연구자들이 연구를 효율적으로 확장할 수 있습니다.
이 글에서는 셀 세분화가 어떻게 작동하는지, 컴퓨터 비전이 이를 어떻게 개선하는지, 그리고 실제 환경에서 어떻게 적용되는지 살펴봅니다. 시작해 보겠습니다!
전통적으로 과학자들은 현미경 이미지로 세포를 추적하면서 수작업으로 세포를 분할했습니다. 이 방법은 소규모 프로젝트에는 효과적이지만 속도가 느리고 일관성이 없으며 오류가 발생하기 쉽습니다. 하나의 이미지에 수천 개의 세포가 겹쳐 있으면 수작업 추적은 금방 압도적이고 큰 병목 현상이 발생합니다.
컴퓨터 비전은 더 빠르고 안정적인 옵션을 제공합니다. 컴퓨터 비전은 기계가 대규모 이미지 세트에서 패턴을 학습하는 딥러닝으로 구동되는 AI의 한 분야입니다. 세포 연구에서 이는 개별 세포를 높은 정확도로 인식하고 분리할 수 있음을 의미합니다.
특히, Ultralytics YOLO11과 같은 비전 AI 모델은 객체 감지 및 인스턴스 분할과 같은 작업을 지원하며, 사용자 지정 데이터 세트에 대해 학습하여 셀을 분석할 수 있습니다. 객체 감지 기능을 사용하면 이미지에서 여러 개의 셀이 함께 나타나는 경우에도 각 셀을 찾아서 레이블을 지정할 수 있습니다.
인스턴스 분할은 한 걸음 더 나아가 각 세포 주위에 정확한 경계를 그려 정확한 모양을 캡처합니다. 이러한 Vision AI 기능을 세포 분할 파이프라인에 통합하면 연구원들은 복잡한 워크플로우를 자동화하고 고해상도 현미경 이미지를 효율적으로 처리할 수 있습니다.
세포 분할 방법은 수년에 걸쳐 많은 변화를 겪었습니다. 초기의 이미지 분할 기술은 단순한 이미지에는 효과가 있었지만 데이터 세트가 커지고 셀을 구분하기 어려워지면서 어려움을 겪었습니다.
이러한 한계를 극복하기 위해 보다 진보된 접근 방식이 개발되어 미생물학 및 현미경 연구에 속도, 정확성, 확장성을 제공하는 오늘날의 컴퓨터 비전 모델이 탄생했습니다.
다음으로 기본적인 임계값 설정 방법부터 최첨단 딥러닝 모델과 하이브리드 파이프라인에 이르기까지 세분화 알고리즘이 어떻게 발전해왔는지 살펴보겠습니다.
컴퓨터 비전이 발전하기 전에는 셀 분할은 기존의 이미지 처리 기술에 의존했습니다. 이러한 방법은 가장자리 감지, 전경과 배경 분리, 모양 평활화 등 수동으로 정의된 규칙과 연산에 의존했습니다. 데이터에서 직접 패턴을 학습할 수 있는 컴퓨터 비전 모델과 달리 이미지 처리는 모든 이미지에 동일한 방식으로 적용되는 고정 알고리즘에 의존합니다.
초기 접근 방식 중 하나는 픽셀 밝기 수준을 비교하여 배경에서 셀을 분리하는 방법인 임계값 설정이었습니다. 이 방법은 셀과 주변 환경 사이에 강한 대비가 있을 때 잘 작동합니다.
결과를 다듬기 위해 확장(모양 확장) 및 침식(모양 축소)과 같은 형태학적 작업을 사용하여 가장자리를 매끄럽게 하거나 노이즈를 제거하거나 작은 간격을 좁힙니다. 서로 닿거나 겹치는 셀의 경우, 유역 분할이라는 기술을 사용하여 셀이 만나는 곳에 경계를 그려서 셀을 분리할 수 있습니다.
이러한 기술은 겹치는 셀이나 노이즈가 많은 이미지와 같은 복잡한 경우에는 어려움을 겪지만, 간단한 애플리케이션에는 여전히 유용하며 셀 분할의 역사에서 중요한 부분을 차지합니다. 그러나 이러한 한계로 인해 업계에서는 보다 까다로운 이미지에 훨씬 더 높은 정확도를 제공하는 딥러닝 기반 모델로 눈을 돌리게 되었습니다.
이미지 처리 기술이 한계에 도달함에 따라 셀 분할은 학습 기반 접근 방식으로 전환되었습니다. 규칙 기반 방식과 달리 딥러닝 모델은 데이터에서 직접 패턴을 식별하므로 겹치는 셀, 다양한 모양, 다양한 이미징 양식에 더 잘 적응할 수 있습니다.
컨볼루션 신경망(CNN) 은 컴퓨터 비전에서 널리 사용되는 딥러닝 아키텍처의 한 종류입니다. 초기 레이어는 가장자리와 텍스처와 같은 단순한 특징을 감지하고, 더 깊은 레이어는 더 복잡한 모양과 구조를 포착하는 등 이미지를 계층으로 처리합니다. 이러한 계층적 접근 방식 덕분에 CNN은 일상적인 물체 인식부터 패턴 인식, 생체 의학 이미지 분석에 이르기까지 다양한 시각적 작업에 효과적입니다.
YOLO11과 같은 모델은 이러한 딥러닝 원리를 기반으로 구축되었습니다. 실시간 객체 감지 및 인스턴스 세분화 기술로 CNN 기반 아키텍처를 확장하여 셀을 빠르게 찾고 그 경계의 윤곽을 그릴 수 있습니다.
하이브리드 파이프라인은 여러 방법의 강점을 결합하여 셀 세분화를 개선합니다. 여기에는 고전적인 이미지 처리 모델과 딥러닝 모델, 또는 서로 다른 딥러닝 기반 모델을 함께 사용하는 것도 포함될 수 있습니다.
예를 들어, 한 가지 방법은 현미경 이미지를 향상시키거나 사전 처리하여 노이즈를 줄이고 경계를 선명하게 하는 반면, 다른 모델은 세포를 감지하고 분할하는 데 사용할 수 있습니다. 이러한 방식으로 작업을 분할함으로써 하이브리드 접근 방식은 정확도를 높이고 복잡한 이미지를 보다 효과적으로 처리하며 대규모 연구의 신뢰성을 높입니다.
컴퓨터 비전 기반 셀 세분화에서 고려해야 할 또 다른 핵심 요소는 이미지 데이터입니다. 컴퓨터 비전 모델은 세포를 정확하게 식별하고 분리하는 방법을 학습하기 위해 고품질의 대규모 데이터 세트에 크게 의존합니다.
이러한 데이터 세트는 일반적으로 현미경 이미지와 주석으로 구성됩니다. 원시 이미지만큼이나 중요한 데이터 주석 또는 라벨링은 모델에 주요 정보를 알려주기 때문에 효과적인 데이터 세트를 만드는 데 중요한 역할을 합니다.
예를 들어, 현미경 이미지에서 암세포를 분류하도록 YOLO11과 같은 모델을 훈련하려면 각 세포의 시작과 끝을 보여주는 레이블이 지정된 예시가 필요합니다. 이러한 라벨은 모델에 세포의 형태와 경계를 인식하는 방법을 가르치는 가이드 역할을 합니다. 주석은 손으로 직접 그리거나 반자동 도구를 사용해 만들 수 있어 시간을 절약할 수 있습니다.
주석의 유형도 작업에 따라 다릅니다. 개체 감지의 경우 각 셀 주위에 경계 상자가 그려집니다. 예를 들어 세분화의 경우, 라벨은 각 셀의 정확한 윤곽을 추적하는 세부 마스크와 비슷합니다. 올바른 종류의 주석과 학습 데이터를 선택하면 모델이 작업에 필요한 것을 학습하는 데 도움이 됩니다.
일반적으로 컴퓨터 비전 데이터세트를 구축하는 것은 특히 기존 이미지 컬렉션이 없거나 분야가 매우 독특하고 전문화된 경우 어려울 수 있습니다. 하지만 세포 연구 분야에서는 데이터 수집과 주석 달기가 훨씬 더 복잡해지는 기술적 어려움이 있습니다.
현미경 이미지는 세포 이미징 방법에 따라 매우 다르게 보일 수 있습니다. 예를 들어 형광 현미경은 세포의 일부를 빛나게 하는 염료를 사용합니다. 이러한 형광 이미지는 다른 방법으로는 보기 어려운 세부 사항을 강조합니다.
주석은 또 다른 주요 과제입니다. 수작업으로 수천 개의 셀에 라벨을 붙이는 것은 느리고 분야별 전문 지식이 필요합니다. 셀이 겹치거나 모양이 바뀌거나 희미하게 보이는 경우가 많기 때문에 실수가 발생하기 쉽습니다. 반자동 도구를 사용하면 프로세스 속도를 높일 수 있지만 일반적으로 품질을 보장하기 위해 사람의 감독이 필요합니다.
연구자들은 작업량을 줄이기 위해 전체 윤곽선을 그리는 대신 셀의 위치를 표시하는 관심 위치 마커와 같은 간단한 주석을 사용하기도 합니다. 정확도는 떨어지지만 이러한 마커는 여전히 훈련에 중요한 지침을 제공합니다.
이 외에도 생물학 분야의 데이터 공유는 더 복잡한 문제를 야기합니다. 개인정보 보호 문제, 환자의 동의, 연구실 간 영상 장비의 차이로 인해 일관성 있는 고품질 데이터 세트를 구축하기가 더 어려워질 수 있습니다.
이러한 장애물에도 불구하고 오픈 소스 데이터 세트는 큰 변화를 가져왔습니다. GitHub와 같은 플랫폼을 통해 공유되는 공개 컬렉션은 다양한 세포 유형과 이미징 방법에 걸쳐 수천 개의 라벨이 지정된 이미지를 제공하므로 모델을 실제 시나리오에 더 잘 일반화할 수 있습니다.
이제 컴퓨터 비전으로 셀을 분할하는 데 사용되는 데이터와 방법에 대해 더 잘 이해했으니, 셀 분할과 컴퓨터 비전의 실제 적용 사례를 살펴봅시다.
단일 세포 분석 또는 전체 조직 샘플 대신 개별 세포를 연구하면 과학자들은 더 넓은 수준에서 놓치기 쉬운 세부 사항을 파악할 수 있습니다. 이 접근 방식은 세포 생물학, 신약 개발, 진단 분야에서 세포가 다양한 조건에서 어떻게 기능하고 반응하는지 이해하기 위해 널리 사용됩니다.
예를 들어, 암 연구에서 조직 샘플에는 암세포, 면역세포, 지지(기질) 세포가 혼합되어 있는 경우가 많습니다. 조직 전체만 보면 면역 세포가 종양과 상호 작용하는 방식이나 혈관 근처의 암세포가 어떻게 행동하는지와 같은 중요한 차이점을 숨길 수 있습니다.
단일 세포 분석을 통해 연구자들은 이러한 세포 유형을 분리하여 개별적으로 연구할 수 있으며, 이는 치료 반응과 질병 진행을 이해하는 데 매우 중요합니다. 인스턴스 분할을 지원하는 YOLO11과 같은 모델은 혼잡하거나 겹쳐진 이미지에서도 각 세포를 감지하고 정확한 윤곽을 그릴 수 있습니다. 복잡한 현미경 이미지를 구조화된 데이터로 변환하여 연구자들이 수천 개의 세포를 빠르고 일관되게 분석할 수 있게 해줍니다.
세포는 다양한 방식으로 분열하고, 움직이고, 주변 환경에 반응합니다. 살아있는 세포가 시간에 따라 어떻게 변화하는지를 분석하면 과학자들은 건강과 질병에서 세포가 어떻게 작용하는지 이해하는 데 도움이 됩니다.
위상차 또는 고해상도 현미경과 같은 도구를 사용하면 연구자들은 염료나 라벨을 추가하지 않고도 이러한 변화를 추적할 수 있습니다. 이렇게 하면 세포를 자연 상태로 유지하여 결과를 더욱 신뢰할 수 있습니다.
시간 경과에 따른 세포 추적은 놓칠 수 있는 세부 사항을 포착하는 데도 도움이 됩니다. 어떤 세포는 다른 세포보다 빠르게 움직이거나, 특이한 방식으로 분열하거나, 자극에 강하게 반응할 수 있습니다. 이러한 미묘한 차이를 기록하면 실제 조건에서 세포가 어떻게 작동하는지에 대한 보다 명확한 그림을 얻을 수 있습니다.
Ultralytics YOLOv8과 같은 컴퓨터 비전 모델은 이 과정을 더욱 빠르고 일관성 있게 만듭니다. 이미지 시퀀스에서 개별 세포를 감지하고 추적하여 세포가 겹치거나 모양이 바뀌는 경우에도 세포의 움직임, 분열, 상호 작용을 자동으로 모니터링할 수 있습니다.
전체 세포 분할에 사용되는 YOLO11과 같은 컴퓨터 비전 모델의 인사이트는 생물정보학(생물학적 데이터를 분석하기 위한 계산 방법 사용) 및 멀티오믹스(DNA, RNA, 단백질 정보의 통합)와 결합하면 더 큰 영향력을 발휘할 수 있습니다. 이러한 방법을 함께 사용하면 세포 경계를 그리는 것을 넘어 그 경계가 무엇을 의미하는지 이해하는 데까지 연구를 발전시킬 수 있습니다.
과학자들은 세포의 위치만 파악하는 것이 아니라 세포가 어떻게 상호 작용하는지, 질병에서 조직 구조가 어떻게 변화하는지, 세포 모양의 작은 변화가 분자 활동과 어떻게 연결되는지 연구할 수 있습니다.
연구자들은 암세포의 크기, 모양 또는 위치를 분자 프로필과 연결하여 유전자 돌연변이, 유전자 발현 또는 비정상적인 단백질 활동과의 상관관계를 찾을 수 있습니다. 이를 통해 정적 이미지를 실용적인 인사이트로 전환하여 종양 전반의 유전자 활동을 추적하고, 실시간으로 단백질 행동을 매핑하며, 구조와 기능을 연결하는 참조 아틀라스를 구축하는 데 도움을 줍니다.
다음은 셀 세분화에 컴퓨터 비전을 사용할 때 얻을 수 있는 주요 이점입니다:
컴퓨터 비전은 셀 세분화에 많은 이점을 제공하지만, 몇 가지 한계도 있습니다. 다음은 몇 가지 유의해야 할 요소입니다:
차세대 셀 세분화는 속도, 정확성, 확장성을 결합한 컴퓨터 비전 모델에 의해 정의될 가능성이 높습니다. U-Net과 같은 모델은 큰 영향력을 발휘해 왔지만, 계산 부담이 클 수 있습니다. 컴퓨터 비전의 발전으로 연구자들은 높은 정확도와 실시간 성능을 모두 제공하는 모델을 향해 나아가고 있습니다.
예를 들어, Ultralytics YOLOv8과 같은 최첨단 모델은 현미경 이미지를 기존 방식보다 훨씬 빠르게 분할하는 동시에 선명하고 정확한 경계를 생성할 수 있습니다.
최근의 투과 전자 현미경(TEM) 연구에 따르면 성능 지표에 따르면 YOLOv8은 U-Net보다 최대 43배 더 빠르게 실행되는 것으로 나타났습니다. 이러한 성능 덕분에 대규모 데이터 세트를 실시간으로 분석할 수 있으며, 이는 이미징 연구의 규모가 커짐에 따라 점점 더 중요해지고 있습니다.
이러한 개선 사항은 이미 실행에 옮겨지고 있습니다. 테아 사이언티픽의 Theiascope™와 같은 플랫폼은 Ultralytics YOLO 모델을 투과전자현미경(TEM)과 통합하여 나노 크기의 구조를 일관되고 대규모로 세분화할 수 있게 해줍니다. 이 플랫폼은 실시간 감지 및 세분화를 위해 Ultralytics YOLO 모델을 사용하여 TEM 이미지에서 캡처된 구조를 자동으로 식별하고 분석할 수 있는 신뢰할 수 있는 데이터로 변환합니다.
세포 분할은 현대 현미경과 생물의학 연구에서 핵심적인 역할을 합니다. 이를 통해 과학자들은 개별 세포를 관찰하고, 질병 진행을 추적하고, 치료법이 세포 행동에 미치는 영향을 모니터링할 수 있습니다. YOLO11과 같은 비전 AI 모델은 이 과정을 더욱 빠르고 정확하게 처리합니다. 크고 복잡한 이미지를 쉽게 처리함으로써 실험을 반복하고 확장할 수 있습니다.
커뮤니티에 가입하고 GitHub 리포지토리를 방문하여 AI에 대해 자세히 알아보세요. 솔루션 페이지에서 농업 분야의 AI와 물류 분야의 컴퓨터 비전과 같은 애플리케이션에 대해 자세히 알아보세요. 라이선스 옵션을 확인하고 지금 바로 컴퓨터 비전으로 구축을 시작하세요!