용어집

생각의 연쇄 프롬프트

연쇄적 사고 프롬프트로 AI 추론을 강화하세요! 복잡한 다단계 작업의 정확성, 투명성 및 컨텍스트 보존을 향상하세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

생각의 사슬(CoT) 프롬프트는 주로 대규모 언어 모델(LLM) 에서 복잡한 추론 작업을 수행하는 능력을 향상시키기 위해 사용되는 고급 기술입니다. CoT는 최종 답만 묻는 대신 모델이 논리적으로 해결책으로 이어지는 중간 단계 또는 '생각의 사슬'을 생성하도록 장려합니다. 이 접근 방식은 인간의 문제 해결 과정을 모방하여 모델이 산술, 상식 또는 상징적 추론이 필요한 문제를 보다 효과적으로 해결하도록 도와주며, 종종 정확도를 크게 향상시킵니다. 이 기술은 Google AI의 연구에서 특히 강조되었습니다.

생각의 연쇄 프롬프트 작동 방식

CoT 프롬프트는 문제를 분석하는 방법을 명시적으로 보여줌으로써 AI 모델을 안내합니다. 두 가지 주요 변형이 있습니다:

  1. 몇 샷 CoT: 프롬프트에는 질문, 상세한 단계별 추론 과정(사고의 사슬), 최종 답변으로 구성된 몇 가지 예시(샷)가 포함되어 있습니다. 모델은 이러한 예시를 통해 실제 질문에 유사한 추론 과정을 적용하는 방법을 학습합니다. 이것은 추론 경로에 적용되는 몇 샷 학습의 한 형태입니다.
  2. 제로 샷 CoT: 이 간단한 접근 방식은 예시를 제공할 필요가 없습니다. 대신 "단계별로 생각해 봅시다"와 같은 간단한 지침이 질문에 추가됩니다. 이 단서는 모델이 최종 답변을 제공하기 전에 추론 과정을 명확히 하도록 유도합니다. 이 모델은 광범위한 사전 훈련을 통해 학습한 모델의 고유한 기능을 활용합니다.

추론 단계를 외부화함으로써 CoT는 모델의 프로세스를 더욱 투명하게 만들고 추론이 잘못되었을 수 있는 부분을 더 쉽게 디버깅할 수 있게 해줍니다. 이는 종종 직접적인 답변을 요구하고 여러 논리적 단계가 필요한 작업에서 실패할 수 있는 표준 프롬프트와는 대조적입니다.

혜택 및 활용

CoT 프롬프트의 가장 큰 장점은 표준 프롬프트가 어려움을 겪는 복잡한 작업에 대해 LLM의 추론 능력을 향상시킬 수 있다는 점입니다. 주요 장점은 다음과 같습니다:

  • 향상된 성능: 수학 단어 문제, 논리적 퍼즐, 다단계 질문 답변과 같은 작업의 정확도가 크게 향상됩니다.
  • 향상된 투명성: 생성된 생각의 사슬은 모델의 추론 과정에 대한 인사이트를 제공하여 설명 가능한 AI(XAI)에 기여합니다.
  • 복잡성 처리 개선: 모델을 관리하기 쉬운 작은 단계로 분해해야 하는 문제를 해결할 수 있습니다.

실제 사례:

  1. 복잡한 고객 지원: CoT를 사용하는 AI 챗봇은 여러 부분으로 구성된 기술적 문제를 해결하거나 복잡한 청구 문의를 설명하는 등 복잡한 고객 문제를 처리할 수 있습니다. CoT 프롬프트는 AI가 먼저 핵심 문제를 파악한 다음 관련 정책이나 기술 단계를 기억하고, 필요한 경우 사용자 기록을 확인한 다음, 마지막으로 고객을 위한 단계별 해결 계획을 수립하도록 안내합니다. 이는 직접 해결책을 추측하는 것보다 더 효과적입니다. Salesforce Einstein과 같은 플랫폼은 고객 서비스에 유사한 추론을 활용합니다.
  2. 데이터 분석 및 해석: 데이터 세트와 복잡한 쿼리(예: "이 보고서를 기반으로 지난 분기 매출 감소에 기여한 주요 요인 파악")가 제시되면 CoT를 사용하는 LLM은 첫째, 관련 데이터 포인트 식별, 둘째, 필요한 계산 또는 비교 수행, 셋째, 결과 종합, 마지막으로 결론 제시와 같은 분석 계획의 윤곽을 잡을 수 있습니다. 이러한 구조화된 접근 방식은 AI가 생성한 데이터 분석 인사이트의 신뢰성을 향상시킵니다.

CoT는 의료 이미지 분석 지원이나 재무 모델링과 같이 신뢰할 수 있고 복잡한 의사 결정이 필요한 분야에서 특히 유용하며, 다음과 같은 모델이 주도하는 컴퓨터 비전(CV) 과 같은 분야의 발전을 보완합니다. Ultralytics YOLO.

관련 개념과의 비교

CoT 프롬프트는 자연어 처리(NLP)머신 러닝(ML)의 다른 기술과 관련이 있지만 이와는 별개의 기술입니다:

  • 프롬프트 엔지니어링: AI 모델에 효과적인 입력(프롬프트)을 설계하는 광범위한 관행입니다. CoT는 추론을 유도하는 데 중점을 둔 구체적이고 고급 프롬프트 엔지니어링 기법입니다. 다른 기법은 명확성, 컨텍스트 제공(프롬프트 강화) 또는 형식 지정에 초점을 맞출 수 있습니다.
  • 프롬프트 연쇄: 프롬프트 연쇄는 복잡한 작업을 더 간단하고 상호 연결된 일련의 프롬프트로 나누고, 한 프롬프트의 출력이 다음 프롬프트의 입력이 되는 것을 말합니다. 이를 위해서는 종종 외부 오케스트레이션이 필요합니다(예: LangChain과 같은 프레임워크 사용). 이와는 대조적으로, CoT는 단일 프롬프트-응답 상호작용 내에서 전체 추론 프로세스를 이끌어내는 것을 목표로 합니다.
  • 제로 샷 학습: 예제 없이 명시적으로 학습되지 않은 작업을 수행할 수 있는 모델의 능력을 말합니다. 제로 샷 CoT는 이를 구체적으로 적용한 것으로, 일반적인 명령어("단계별로 생각해 봅시다")를 사용하여 추론을 트리거합니다. 그러나 CoT는 순수한 제로 샷 학습과 달리 작업별 추론 예제를 제공하는 몇 번의 샷 설정에서 더 나은 성능을 발휘하는 경우가 많습니다.

CoT 프롬프트는 더 유능하고 해석 가능한 인공 지능(AI) 시스템을 구축하기 위한 중요한 단계입니다. 이러한 기술을 이해하고 활용하면 정교한 AI 모델을 개발할 때 유용할 수 있으며, 잠재적으로 훈련배포를 관리하기 위해 Ultralytics HUB와 같은 플랫폼을 활용할 수 있습니다. 자기 일관성과 같은 기술은 여러 추론 경로를 샘플링하고 가장 일관된 답을 선택함으로써 CoT를 더욱 향상시킬 수 있습니다.

모두 보기