Yolo 비전 선전
선전
지금 참여하기
용어집

사고 사슬 프롬프트

AI 추론 능력을 향상시키기 위한 사고의 사슬(CoT) 프롬프팅을 탐구하세요. 과제를 논리적 단계로 분할하는 것이 Ultralytics 코드 생성을 어떻게 개선하는지 알아보세요.

사슬형 사고(CoT) 프롬프팅은 프롬프트 엔지니어링의 고급 기법으로, 대규모 언어 모델(LLM)이 복잡한 추론 작업을 중간 논리 단계로 분해하여 해결할 수 있게 합니다. 모델에게 즉각적인 최종 답변을 요구하기보다, CoT는 시스템이 인간의 문제 해결 방식을 모방하는 "사유의 흐름"을 생성하도록 유도합니다. 이러한 단계별 추론은 산술, 기호 논리, 상식 추론과 관련된 작업에서 성능을 크게 향상시켜 인공지능(AI) 시스템과의 상호작용 방식을 변화시킵니다.

추론의 메커니즘

표준 언어 모델은 단일 패스로 입력을 출력에 직접 매핑하려 하기 때문에 다단계 문제에 종종 어려움을 겪습니다. 이러한 "블랙박스" 접근 방식은 특히 논리적 도약이 너무 클 때 오류로 이어질 수 있습니다. 체인 오브 사우프 프롬프팅은 입력 질문과 최종 출력 사이에 추론 단계를 삽입함으로써 이 문제를 해결합니다.

이 과정은 일반적으로 두 가지 방식으로 작동합니다:

  • 제로샷 CoT: 사용자는 프롬프트에 "단계별로 생각해보자"와 같은 간단한 트리거 문구를 추가합니다. 이는 특정 예시 없이도 모델의 잠재적 추론 능력을 활성화합니다.
  • 소량 데이터 기반 추론(Few-Shot CoT): 프롬프트에는 단계별 해법과 함께 제공된 몇 가지 예시(모범 사례)가 포함됩니다. 이는 소량 학습(few-shot learning)을 활용하여 모델이 새로운 문제를 시도하기 전에 논리를 구성하는 방법을 정확히 보여줍니다.

모델이 중간 추론을 명시적으로 생성함으로써 스스로를 수정할 기회가 더 많아지고 결론에 도달한 과정을 투명하게 보여줍니다. 이는 대규모 언어 모델( LLM) 에서 환각 현상을 줄이는 데 매우 중요합니다. 그렇지 않으면 모델이 잘못된 사실을 확신하며 진술할 수 있기 때문입니다.

실제 애플리케이션

체인 오브 사우프 프롬프팅은 원래 텍스트 기반 논리를 위해 개발되었지만, 컴퓨터 비전이나 코드 생성 같은 다른 AI 분야와 결합할 때 강력한 응용 가능성을 지닙니다.

1. 컴퓨터 비전을 위한 코드 생성 향상

개발자들은 객체 탐지 같은 작업을 위한 복잡한 소프트웨어 스크립트를 작성할 때 CoT를 활용해 대규모 언어 모델(LLM)을 안내합니다. "차를 찾는 코드를 작성해라" 같은 모호한 요청 대신, CoT 프롬프트는 요청을 다음과 같이 구조화할 수 있습니다: "첫째, 필요한 라이브러리를 임포트하세요. 둘째, 사전 훈련된 모델을 로드하세요. 셋째, 이미지 소스를 정의하세요. 마지막으로 예측 루프를 실행하세요." 이러한 구조화된 접근 방식은 YOLO26과 같은 모델을 위한 생성된 코드가 문법적으로 정확하고 논리적으로 타당하도록 보장합니다.

2. 자율적 의사 결정

자율주행차 분야에서 시스템은 시각 데이터를 처리하고 안전에 중대한 결정을 내려야 합니다. 사슬형 사고(Chain-of-Thought) 접근법은 시스템이 자신의 논리를 명확히 표현할 수 있게 합니다: "횡단보도 근처에서 detect . 보행자는 도로를 향하고 있습니다. 신호등은 내게 녹색이지만 보행자가 걸어 나올 수 있습니다. 따라서 속도를 줄이고 정지할 준비를 하겠습니다." 이는 AI의 결정을 해석 가능하게 하며 설명 가능한 AI(XAI) 원칙과 부합합니다.

사유의 사슬이 작동하는 모습

CoT는 주로 자연어 기법이지만, 시각 모델과의 일관된 상호작용을 보장하기 위해 프로그래밍 방식으로 구현될 수 있습니다. 다음 Python 개발자가 프롬프트를 구성하여 LLM(여기서는 시뮬레이션됨)이 Ultralytics 유효한 추론 코드를 생성하도록 안내하는 방법을 보여줍니다.

# Example of structuring a Chain-of-Thought prompt for an LLM
# This prompt guides the model to write a valid YOLO26 inference script

cot_prompt = """
Task: Write a Python script to detect objects using YOLO26.

Chain of Thought:
1. Import the YOLO class from the 'ultralytics' library.
2. Load the 'yolo26n.pt' model weights (the latest nano model).
3. Load a sample image using a URL or local path.
4. Run the predict() function and save the results.

Based on these steps, generate the Python code below:
"""

# In a real application, you would send 'cot_prompt' to an LLM API
print(f"Structured Prompt for LLM:\n{cot_prompt}")

관련 개념 구분하기

기계 학습(ML) 분야에서 유사한 용어와 사유 사슬 유도 ( Chain-of-Thought prompting)를 구분하는 것이 중요합니다:

  • 프롬프트 체이닝: 이는 여러 개의 분리된 모델 호출을 연결하는 것으로, 한 단계의 출력이 다음 단계의 입력이 됩니다. CoT는 단일 프롬프트 내에서 내부 추론을 유도하는 반면, 프롬프트 체이닝은 여러 상호작용에 걸쳐 워크플로를 조정합니다.
  • 검색 강화 생성(RAG): RAG는 모델의 지식을 뒷받침하기 위해 외부 데이터(문서나 데이터베이스 등)를 가져오는 데 중점을 둡니다. CoT는 추론 과정 자체에 초점을 맞춥니다. 종종 이 두 가지는 결합되어 사용됩니다—RAG로 사실을 확보하고 CoT로 그 사실에 대해 추론하는 식입니다.
  • 프롬프트 튜닝(CoT): 이는 훈련 중 연속적인 소프트 프롬프트(벡터)를 최적화하는 매개변수 효율적인 미세 조정 방법입니다. CoT는 모델 가중치를 변경하지 않고 실시간 추론 시 적용되는 이산적 자연어 처리 전략입니다.

향후 전망

파운데이션 모델이 지속적으로 진화함에 따라, 사슬형 추론(Chain-of-Thought) 프롬프팅은 모델의 잠재력을 최대한 발휘하기 위한 표준적인 모범 사례로 자리 잡고 있습니다. Google ) 와 같은 연구 그룹의 연구에 따르면, 모델의 규모가 커질수록 사슬형 추론 수행 능력이 극적으로 향상됩니다. 이러한 진화는 의료부터 스마트 제조에 이르기까지 다양한 산업 분야에서 복잡한 워크플로우를 처리할 수 있는 더 신뢰할 수 있는 자율 에이전트의 길을 열어주고 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기