AI에서 self-attention의 강력한 기능을 발견하고, 맥락 인식 정밀도로 NLP, 컴퓨터 비전 및 음성 인식을 혁신하십시오.
Self-Attention은 모델이 단일 입력 시퀀스 내에서 다양한 요소의 중요도를 평가할 수 있도록 하는 메커니즘입니다. 입력의 모든 부분을 동일하게 취급하는 대신 모델이 특정 요소를 처리할 때 가장 관련성이 높은 부분에 선택적으로 집중할 수 있도록 합니다. 이 기능은 컨텍스트, 장거리 종속성 및 데이터 내 관계를 이해하는 데 중요하며, 많은 최신 인공 지능(AI) 아키텍처, 특히 Transformer의 기반을 형성합니다. 이는 "Attention Is All You Need"라는 획기적인 논문에서 유명하게 소개되었으며, 이 논문은 자연어 처리(NLP) 분야에 혁명을 일으켰습니다.
핵심적으로 셀프 어텐션은 현재 처리 중인 요소와 관련된 입력 시퀀스의 다른 모든 요소에 "어텐션 점수"를 할당하여 작동합니다. 이는 각 입력 요소에 대해 쿼리(Q), 키(K) 및 값(V)의 세 가지 벡터를 만들어 달성됩니다.
주어진 쿼리에 대해 메커니즘은 시퀀스의 모든 키와의 유사성을 계산합니다. 그런 다음 이러한 유사성 점수는 가중치(종종 소프트맥스 함수 사용)로 변환되어 각 요소의 값에 얼마나 많은 초점을 맞춰야 하는지 결정합니다. 쿼리에 대한 최종 출력은 모든 값의 가중치 합계이며 전체 시퀀스의 컨텍스트로 풍부해진 해당 요소의 새로운 표현을 만듭니다. 이 프로세스는 대규모 언어 모델(LLM)이 작동하는 방식의 핵심 부분입니다. 이 Q-K-V 프로세스에 대한 훌륭한 시각적 설명은 Jay Alammar의 블로그와 같은 리소스에서 찾을 수 있습니다.
Self-Attention은 특정 유형의 Attention 메커니즘입니다. 주요 차이점은 Query, Key 및 Value 벡터의 소스입니다.
자기 주의(Self-Attention)는 텍스트 요약 및 번역과 같은 작업에 대해 NLP에서 처음 대중화되었지만, 컴퓨터 비전(CV)에서도 매우 효과적인 것으로 입증되었습니다.
자기 주의(Self-attention) 메커니즘은 더 높은 계산 효율성(FlashAttention 및 희소(sparse) 어텐션 변형과 같은 방법)과 더 넓은 적용 가능성을 목표로 지속적으로 개선되고 있습니다. AI 모델의 복잡성이 증가함에 따라 자기 주의는 로보틱스와 같은 특수 AI 애플리케이션부터 일반 인공 지능(AGI) 추구에 이르기까지 다양한 분야에서 발전을 주도하는 핵심 기술로 남을 것으로 예상됩니다. Ultralytics HUB와 같은 도구 및 플랫폼은 이러한 고급 기술을 통합한 모델의 학습 및 배포를 용이하게 하며, 이러한 모델은 종종 Hugging Face와 같은 저장소를 통해 제공되고 PyTorch 및 TensorFlow와 같은 프레임워크로 개발됩니다.