확장 가능한 아키텍처, 광범위한 사전 교육, 다양한 애플리케이션에 대한 적응성을 갖춘 파운데이션 모델이 어떻게 AI를 혁신하는지 알아보세요.
기초 모델은 라벨이 지정되지 않은 방대한 양의 광범위한 데이터로 학습된 대규모 머신러닝(ML) 모델로, 다양한 다운스트림 작업에 적용될 수 있습니다. 스탠포드 인간 중심 AI 연구소에서 만든 핵심 개념은 '이머전 속성'으로, 이 모델은 학습된 데이터에서 패턴, 구문 및 의미론에 대한 놀랍도록 다양한 이해를 발전시킵니다. 이러한 범용성 덕분에 미세 조정이라는 프로세스를 통해 보다 전문화된 모델을 만들기 위한 강력한 출발점, 즉 '기초' 역할을 할 수 있습니다.
기초 모델의 가장 큰 특징은 전이 학습 패러다임에서 비롯된 적응성입니다. 개발자는 모든 문제에 대해 처음부터 새 모델을 학습하는 대신, 미리 학습된 기초 모델을 사용하여 훨씬 더 작은 작업별 데이터 세트로 조정할 수 있습니다. 이를 통해 고성능 AI 시스템을 구축하는 데 필요한 데이터, 계산, 시간을 획기적으로 줄일 수 있습니다.
실제 애플리케이션을 통해 다양한 활용성을 확인할 수 있습니다:
기초 모델과 관련 개념을 구분하는 것이 중요합니다:
기초 모델을 사전 학습하는 작업은 리소스 집약적인 작업으로 수천 대의 GPU와 대규모 엔지니어링 노력이 필요한 경우가 많으며, 일반적으로 Google AI 및 DeepMind와 같은 대규모 조직에서 수행합니다. 하지만 일단 학습이 완료되면 이러한 모델을 더 폭넓게 사용할 수 있습니다.
Ultralytics HUB와 같은 플랫폼은 사용자 지정 모델을 학습하고, 데이터 세트를 관리하고, 솔루션을 배포하는 워크플로우를 간소화하여 사용자가 이러한 기본 기능을 조정할 수 있는 도구를 제공하며, 종종 신중한 하이퍼파라미터 조정을 통해 이러한 기본 기능을 조정할 수 있습니다.
재단 모델은 강력한 기능에 대한 액세스를 민주화함으로써 AI 환경을 변화시키고 있습니다. 또한 이러한 모델의 부상은 AI 윤리, 데이터 세트 편향성, 컴퓨팅 격차에 대한 중요한 논의를 불러일으키고 있습니다. 미래에는 텍스트, 이미지, 사운드의 정보를 동시에 이해하고 처리할 수 있는 더욱 강력하고 효율적인 멀티모달 모델이 등장하여 차세대 AI 사용 사례를 주도할 것입니다.