YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

Meta의 Llama 3 알아보기

Abirami Vina

7분 읽기

2024년 5월 10일

Meta의 Llama 3가 최근 출시되어 AI 커뮤니티로부터 큰 호응을 얻었습니다. Meta AI의 최신 발전인 Llama 3에 대해 자세히 알아보겠습니다.

2024년 1분기의 인공 지능 (AI) 혁신을 종합했을 때, LLM(대규모 언어 모델)이 여러 조직에서 쏟아져 나오고 있음을 확인했습니다. 이러한 추세에 따라 2024년 4월 18일 Meta는 차세대 최첨단 오픈 소스 LLM인 Llama 3를 출시했습니다. 

이런 생각을 하실 수도 있습니다. 또 다른 LLM일 뿐인데, 왜 AI 커뮤니티는 이토록 열광하는 걸까? 

GPT-3 또는 Gemini와 같은 모델을 미세 조정하여 사용자 정의된 응답을 얻을 수 있지만, 학습 데이터, 모델 매개변수 또는 알고리즘과 같은 내부 작동에 대한 완전한 투명성을 제공하지는 않습니다. 대조적으로 Meta의 Llama 3는 아키텍처와 가중치를 다운로드할 수 있어 더 투명합니다. AI 커뮤니티에게 이는 실험할 수 있는 더 큰 자유를 의미합니다.

본 문서에서는 Llama 3가 무엇을 할 수 있는지, 어떻게 탄생하게 되었는지, 그리고 AI 분야에 미치는 영향에 대해 알아보겠습니다. 바로 시작해 볼까요!

Meta의 Llama 모델 진화

Llama 3에 대해 자세히 알아보기 전에 이전 버전을 되돌아보겠습니다.

Meta는 2023년 2월에 Llama 1을 출시했으며, 70억 개에서 640억 개에 이르는 파라미터를 가진 네 가지 변형으로 제공되었습니다. 머신 러닝에서 '파라미터'는 훈련 데이터에서 학습된 모델의 요소를 나타냅니다. Llama 1은 파라미터 수가 적기 때문에 미묘한 이해에 어려움을 겪고 일관성 없는 응답을 제공하는 경우가 있었습니다.

Llama 1 출시 직후, Meta는 2023년 7월에 Llama 2를 출시했습니다. Llama 2는 2조 개의 토큰으로 학습되었으며, 여기서 토큰은 단어나 단어의 일부처럼 텍스트의 한 조각을 의미하며 모델에서 데이터를 처리하는 기본 단위로 사용됩니다. 또한, 더 긴 문맥을 이해하기 위해 4096 토큰으로 컨텍스트 창 크기를 두 배로 늘리고, 오류를 줄이기 위해 100만 건 이상의 인간 주석을 추가하는 등 개선 사항이 적용되었습니다. 이러한 개선에도 불구하고 Llama 2는 여전히 많은 컴퓨팅 성능을 필요로 했고, Meta는 Llama 3를 통해 이 문제를 해결하고자 했습니다.

Meta의 Llama 3 소개

Llama 3는 무려 15조 개의 토큰에 대해 학습된 4가지 변형으로 제공됩니다. 해당 학습 데이터의 5% 이상(약 8억 개의 토큰)이 30개의 서로 다른 언어로 된 데이터를 나타냅니다. 모든 Llama 3 변형은 다양한 유형의 소비자 하드웨어에서 실행할 수 있으며 컨텍스트 길이는 8k 토큰입니다. 

__wf_reserved_inherit
Fig 1. Llama 3와 Llama 2를 비교합니다.

모델 변형은 80억 개와 700억 개의 파라미터를 나타내는 8B 및 70B의 두 가지 크기로 제공됩니다. 또한 'base'와 'instruct'의 두 가지 버전이 있습니다. 'Base'는 표준 사전 학습 버전을 의미합니다. 'Instruct'는 관련 데이터에 대한 추가 학습을 통해 특정 애플리케이션 또는 도메인에 최적화된 미세 조정 버전입니다.

다음은 Llama 3 모델 변형입니다.

  • Meta-Llama-3-8b: 8B 기반 모델은 기본적인 AI 기능을 제공하며 고객 서비스 챗봇 개발과 같은 일반적인 작업에 이상적입니다.
  • Meta-Llama-3-8b-instruct: 특정 작업에 최적화된 8B 모델의 instruct 파인 튜닝 버전입니다. 예를 들어 복잡한 주제를 설명하는 교육 도구를 만드는 데 사용할 수 있습니다.
  • Meta-Llama-3-70b: 70B 기반 모델은 고성능 AI 애플리케이션을 위해 설계되었습니다. 이 모델은 신약 개발을 위해 광범위한 생물 의학 문헌을 처리하는 것과 같은 애플리케이션에 적합합니다.
  • Meta-Llama-3-70b-instruct: 이 버전은 정확성이 중요한 법률 또는 의료 문서 분석과 같이 매우 정확한 애플리케이션을 위해 70B 모델에서 미세 조정되었습니다.

Meta의 Llama 3 모델 아키텍처

다른 Meta AI 발전과 마찬가지로 Llama 3을 개발하는 동안 데이터 무결성을 유지하고 편향을 최소화하기 위해 엄격한 품질 관리 조치가 마련되었습니다. 따라서 최종 제품은 책임감 있게 만들어진 강력한 모델입니다. 

Llama 3 모델 아키텍처는 자연어 처리 작업에서 효율성과 성능에 중점을 둔다는 점에서 두드러집니다. Transformer 기반 프레임워크를 기반으로 구축되었으며, 특히 텍스트 생성 중에 디코더 전용 아키텍처를 사용하여 계산 효율성을 강조합니다. 

이 모델은 입력을 인코딩하는 인코더 없이 이전 컨텍스트만을 기반으로 출력을 생성하므로 훨씬 빠릅니다.

__wf_reserved_inherit
Fig 2. Llama 3 책임감 있는 모델 아키텍처.

Llama 3 모델은 128K 토큰의 어휘를 가진 토크나이저를 특징으로 합니다. 어휘가 클수록 모델이 텍스트를 더 잘 이해하고 처리할 수 있습니다. 또한 모델은 이제 GQA(그룹화된 쿼리 주의)를 사용하여 추론 효율성을 향상시킵니다. GQA는 모델이 입력 데이터의 관련 부분에 집중하여 더 빠르고 정확한 응답을 생성하는 데 도움이 되는 스포트라이트라고 생각할 수 있는 기술입니다.

다음은 Llama 3 모델 아키텍처에 대한 몇 가지 더 흥미로운 세부 정보입니다.

  • 경계 인식 문서 처리: Llama 3는 문서 경계 전반에 걸쳐 명확성을 유지하며, 이는 요약과 같은 작업에 중요합니다.
  • 더 나은 코드 이해: Llama 3의 훈련 데이터에는 4배 더 많은 코드 샘플이 포함되어 코딩 능력이 향상되었습니다.
  • 강력한 품질 관리: 휴리스틱 필터 및 NSFW 제거를 포함한 엄격한 조치를 통해 데이터 무결성을 보장하고 편향을 최소화합니다.

Llama 3는 모델 학습에 접근하는 방식을 변화시키고 있습니다.

가장 큰 Llama 3 모델을 훈련하기 위해 데이터 병렬화, 모델 병렬화, 파이프라인 병렬화의 세 가지 유형의 병렬화가 결합되었습니다. 

데이터 병렬화는 훈련 데이터를 여러 GPU에 분산시키고, 모델 병렬화는 모델 아키텍처를 분할하여 각 GPU의 컴퓨팅 성능을 활용합니다. 파이프라인 병렬화는 훈련 프로세스를 순차적 단계로 나누어 계산 및 통신을 최적화합니다.

가장 효율적인 구현은 16,000개의 GPU에서 동시에 학습했을 때 GPU당 400 TFLOPS를 초과하는 놀라운 컴퓨팅 활용률을 달성했습니다. 이러한 학습 실행은 각각 24,000개의 GPU로 구성된 두 개의 맞춤형 GPU 클러스터에서 수행되었습니다. 이 상당한 컴퓨팅 인프라는 대규모 Llama 3 모델을 효율적으로 학습하는 데 필요한 성능을 제공했습니다.

GPU 가동 시간을 최대화하기 위해 오류 감지, 처리 및 유지 관리를 자동화하는 고급 새로운 학습 스택이 개발되었습니다. 하드웨어 안정성 및 감지 메커니즘이 크게 개선되어 무음 데이터 손상 위험을 완화했습니다. 또한 체크포인트 및 롤백 오버헤드를 줄이기 위해 새로운 확장 가능한 스토리지 시스템이 개발되었습니다. 

이러한 개선 사항으로 인해 전체 학습 시간의 효율성이 95% 이상 향상되었습니다. 종합적으로 Llama 2와 비교했을 때 Llama 3 학습 효율성이 약 3배 증가했습니다. 이러한 효율성은 인상적일 뿐만 아니라 AI 학습 방법의 새로운 가능성을 열어주고 있습니다. 

Llama 3로 가능성의 문을 열다

Llama 3는 오픈 소스이기 때문에 연구원과 학생들은 코드를 연구하고, 실험을 수행하며, 윤리적 문제와 편향에 대한 토론에 참여할 수 있습니다. 그러나 Llama 3는 학계만을 위한 것이 아닙니다. 실용적인 애플리케이션에서도 큰 반향을 일으키고 있습니다. Facebook, Instagram, WhatsApp, Messenger와 같은 플랫폼에 원활하게 통합되어 Meta AI 채팅 인터페이스의 중추가 되고 있습니다. Meta AI를 통해 사용자는 자연어 대화에 참여하고, 개인화된 추천에 액세스하고, 작업을 수행하고, 다른 사람들과 쉽게 연결할 수 있습니다.

__wf_reserved_inherit
Fig 3. Meta AI: Llama 3로 구동됩니다.

Llama 3와 다른 LLM 비교

Llama 3는 복잡한 언어 이해 및 추론 능력을 평가하는 여러 주요 벤치마크에서 매우 뛰어난 성능을 보입니다. 다음은 Llama 3의 다양한 기능을 테스트하는 벤치마크 중 일부입니다.

  • 대규모 멀티태스크 언어 이해(Massive Multitask Language Understanding, MMLU) - 다양한 영역에 걸쳐 지식을 측정합니다. 
  • 일반 목적 질의 응답(GPQA) - 광범위한 일반 지식 질문에 대한 일관성 있고 정확한 답변을 생성하는 모델의 능력을 평가합니다.
  • HumanEval - 코딩 및 문제 해결 작업에 중점을 두어 기능적 프로그래밍 코드를 생성하고 알고리즘 문제를 해결하는 모델의 능력을 테스트합니다.

이러한 테스트에서 Llama 3의 뛰어난 결과는 Google의 Gemma 7B, Mistral의 Mistral 7B 및 Anthropic의 Claude 3 Sonnet과 같은 경쟁 제품과 분명히 차별화됩니다. 발표된 통계, 특히 70B 모델에 따르면 Llama 3는 위의 모든 벤치마크에서 이러한 모델보다 뛰어난 성능을 보입니다.

__wf_reserved_inherit
Fig 4. Llama 3와 다른 LLM 비교.

Meta Llama 3는 널리 액세스할 수 있도록 만들어지고 있습니다.

Meta는 일반 사용자와 개발자 모두를 위해 다양한 플랫폼에서 Llama 3를 사용할 수 있도록 하여 접근성을 확대하고 있습니다. 일반 사용자의 경우 Llama 3는 WhatsApp, Instagram, Facebook, Messenger와 같은 Meta의 인기 플랫폼에 통합되어 있습니다. 사용자는 이러한 앱 내에서 실시간 검색 및 창의적인 콘텐츠 생성과 같은 고급 기능에 액세스할 수 있습니다. 

Llama 3는 또한 Ray-Ban Meta 스마트 안경 및 Meta Quest VR 헤드셋과 같은 웨어러블 기술에 통합되어 인터랙티브한 경험을 제공합니다.

Llama 3는 AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM 및 Snowflake를 포함한 다양한 플랫폼에서 개발자가 사용할 수 있습니다. Meta에서 직접 이러한 모델에 액세스할 수도 있습니다. 다양한 옵션을 통해 개발자는 Meta에서 직접 작업하든 다른 인기 플랫폼을 통해 작업하든 이러한 고급 AI 모델 기능을 프로젝트에 쉽게 통합할 수 있습니다.

결론

머신 러닝의 발전은 우리가 매일 기술과 상호 작용하는 방식을 계속 변화시키고 있습니다. Meta의 Llama 3는 LLM이 더 이상 텍스트 생성에만 국한되지 않는다는 것을 보여줍니다. LLM은 복잡한 문제를 해결하고 여러 언어를 처리합니다. 전반적으로 Llama 3는 AI를 그 어느 때보다 적응 가능하고 접근하기 쉽게 만들고 있습니다. 앞으로 Llama 3에 대한 계획된 업그레이드는 여러 모델을 처리하고 더 큰 컨텍스트를 이해하는 것과 같은 훨씬 더 많은 기능을 제공할 것으로 예상됩니다. 

AI에 대해 자세히 알아보려면 GitHub 저장소를 확인하고 커뮤니티에 참여하세요. AI가 제조농업과 같은 분야에서 어떻게 적용되고 있는지 보려면 솔루션 페이지를 방문하세요.

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.