AI 추론 능력을 향상시키기 위한 사고의 사슬(CoT) 프롬프팅을 탐구하세요. 과제를 논리적 단계로 분할하는 것이 Ultralytics 코드 생성을 어떻게 개선하는지 알아보세요.
사슬형 사고(CoT) 프롬프팅은 프롬프트 엔지니어링의 고급 기법으로, 대규모 언어 모델(LLM)이 복잡한 추론 작업을 중간 논리 단계로 분해하여 해결할 수 있게 합니다. 모델에게 즉각적인 최종 답변을 요구하기보다, CoT는 시스템이 인간의 문제 해결 방식을 모방하는 "사유의 흐름"을 생성하도록 유도합니다. 이러한 단계별 추론은 산술, 기호 논리, 상식 추론과 관련된 작업에서 성능을 크게 향상시켜 인공지능(AI) 시스템과의 상호작용 방식을 변화시킵니다.
표준 언어 모델은 단일 패스로 입력을 출력에 직접 매핑하려 하기 때문에 다단계 문제에 종종 어려움을 겪습니다. 이러한 "블랙박스" 접근 방식은 특히 논리적 도약이 너무 클 때 오류로 이어질 수 있습니다. 체인 오브 사우프 프롬프팅은 입력 질문과 최종 출력 사이에 추론 단계를 삽입함으로써 이 문제를 해결합니다.
이 과정은 일반적으로 두 가지 방식으로 작동합니다:
모델이 중간 추론을 명시적으로 생성함으로써 스스로를 수정할 기회가 더 많아지고 결론에 도달한 과정을 투명하게 보여줍니다. 이는 대규모 언어 모델( LLM) 에서 환각 현상을 줄이는 데 매우 중요합니다. 그렇지 않으면 모델이 잘못된 사실을 확신하며 진술할 수 있기 때문입니다.
체인 오브 사우프 프롬프팅은 원래 텍스트 기반 논리를 위해 개발되었지만, 컴퓨터 비전이나 코드 생성 같은 다른 AI 분야와 결합할 때 강력한 응용 가능성을 지닙니다.
개발자들은 객체 탐지 같은 작업을 위한 복잡한 소프트웨어 스크립트를 작성할 때 CoT를 활용해 대규모 언어 모델(LLM)을 안내합니다. "차를 찾는 코드를 작성해라" 같은 모호한 요청 대신, CoT 프롬프트는 요청을 다음과 같이 구조화할 수 있습니다: "첫째, 필요한 라이브러리를 임포트하세요. 둘째, 사전 훈련된 모델을 로드하세요. 셋째, 이미지 소스를 정의하세요. 마지막으로 예측 루프를 실행하세요." 이러한 구조화된 접근 방식은 YOLO26과 같은 모델을 위한 생성된 코드가 문법적으로 정확하고 논리적으로 타당하도록 보장합니다.
자율주행차 분야에서 시스템은 시각 데이터를 처리하고 안전에 중대한 결정을 내려야 합니다. 사슬형 사고(Chain-of-Thought) 접근법은 시스템이 자신의 논리를 명확히 표현할 수 있게 합니다: "횡단보도 근처에서 detect . 보행자는 도로를 향하고 있습니다. 신호등은 내게 녹색이지만 보행자가 걸어 나올 수 있습니다. 따라서 속도를 줄이고 정지할 준비를 하겠습니다." 이는 AI의 결정을 해석 가능하게 하며 설명 가능한 AI(XAI) 원칙과 부합합니다.
CoT는 주로 자연어 기법이지만, 시각 모델과의 일관된 상호작용을 보장하기 위해 프로그래밍 방식으로 구현될 수 있습니다. 다음 Python 개발자가 프롬프트를 구성하여 LLM(여기서는 시뮬레이션됨)이 Ultralytics 유효한 추론 코드를 생성하도록 안내하는 방법을 보여줍니다.
# Example of structuring a Chain-of-Thought prompt for an LLM
# This prompt guides the model to write a valid YOLO26 inference script
cot_prompt = """
Task: Write a Python script to detect objects using YOLO26.
Chain of Thought:
1. Import the YOLO class from the 'ultralytics' library.
2. Load the 'yolo26n.pt' model weights (the latest nano model).
3. Load a sample image using a URL or local path.
4. Run the predict() function and save the results.
Based on these steps, generate the Python code below:
"""
# In a real application, you would send 'cot_prompt' to an LLM API
print(f"Structured Prompt for LLM:\n{cot_prompt}")
기계 학습(ML) 분야에서 유사한 용어와 사유 사슬 유도 ( Chain-of-Thought prompting)를 구분하는 것이 중요합니다:
파운데이션 모델이 지속적으로 진화함에 따라, 사슬형 추론(Chain-of-Thought) 프롬프팅은 모델의 잠재력을 최대한 발휘하기 위한 표준적인 모범 사례로 자리 잡고 있습니다. Google ) 와 같은 연구 그룹의 연구에 따르면, 모델의 규모가 커질수록 사슬형 추론 수행 능력이 극적으로 향상됩니다. 이러한 진화는 의료부터 스마트 제조에 이르기까지 다양한 산업 분야에서 복잡한 워크플로우를 처리할 수 있는 더 신뢰할 수 있는 자율 에이전트의 길을 열어주고 있습니다.