YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

OpenAI GPT-4o Mini의 기능에 대한 심층 분석

Abirami Vina

6분 소요

2024년 7월 25일

GPT-4o Mini의 기능과 응용 분야를 살펴보세요. OpenAI의 최신 모델이자 가장 비용 효율적인 모델은 GPT-3.5 Turbo보다 60% 저렴한 가격으로 고급 AI 기능을 제공합니다.

2024년 5월, OpenAI는 GPT-4o를 출시했고, 불과 3개월 만에 또 다른 인상적인 모델인 GPT-4o Mini를 선보였습니다. 2024년 7월 18일, OpenAI는 GPT-4o Mini를 소개했습니다. 그들은 이것을 그들의 "가장 비용 효율적인 모델"이라고 부르고 있습니다! GPT-4o Mini는 이전 모델의 기능을 기반으로 구축되었으며 고급 AI를 보다 접근하기 쉽고 저렴하게 만드는 것을 목표로 하는 컴팩트 모델입니다.

GPT-4o Mini는 현재 텍스트 및 비전 상호 작용을 지원하며, 향후 업데이트를 통해 이미지, 비디오 및 오디오 처리 기능이 추가될 예정입니다. 이 기사에서는 GPT-4o Mini가 무엇인지, 주요 기능, 사용 방법, GPT-4와 GPT-4o Mini의 차이점, 다양한 컴퓨터 비전 사용 사례에서 어떻게 사용될 수 있는지 살펴보겠습니다. GPT-4o Mini가 제공하는 기능을 자세히 살펴보겠습니다!

GPT-4o Mini란 무엇인가?

GPT-4o Mini는 OpenAI의 최신 AI 모델로, 비용 효율성과 접근성을 높이는 데 중점을 두고 설계되었습니다. 텍스트, 이미지, 비디오, 오디오 등 다양한 유형의 데이터를 처리하고 생성할 수 있는 멀티모달 대규모 언어 모델(LLM)입니다. 이 모델은 GPT-4 및 GPT-4o와 같은 이전 모델의 강점을 기반으로 강력한 기능을 컴팩트한 패키지로 제공합니다. 

GPT-4o Mini는 GPT-3.5 Turbo보다 60% 저렴하며, 입력 토큰(모델이 처리하는 텍스트 또는 데이터 단위) 백만 개당 15센트, 출력 토큰(모델이 응답으로 생성하는 단위) 백만 개당 60센트입니다. 백만 개의 토큰은 대략 텍스트 2,500페이지를 처리하는 것과 같습니다. 128K 토큰의 컨텍스트 창과 요청당 최대 16K 출력 토큰을 처리할 수 있는 GPT-4o Mini는 효율성과 경제성을 모두 갖추도록 설계되었습니다.

__wf_reserved_inherit
그림 1. GPT-4o Mini는 GPT-3.5 Turbo보다 60% 저렴합니다.

GPT-4o Mini의 주요 기능 

GPT-4o Mini는 다양한 애플리케이션에 적합한 광범위한 작업을 지원합니다. 여러 API 호출, 전체 코드 베이스 또는 대화 기록과 같은 대량의 데이터 처리, 고객 지원 챗봇에서 빠른 실시간 응답 제공 등 여러 작업을 동시에 실행할 때 유용하게 사용할 수 있습니다.

다음은 몇 가지 주요 기능입니다.

  • 업데이트된 지식 기반: 이 모델은 2023년 10월까지의 정보를 포함합니다.
  • 향상된 토크나이저: GPT-4o Mini는 영어가 아닌 텍스트를 보다 비용 효율적으로 처리합니다.
  • 강력한 안전 조치: 이러한 조치에는 유해 콘텐츠 필터링, 프롬프트 주입 및 시스템 조작과 같은 보안 문제에 대한 보호가 포함됩니다.

GPT-4o Mini 시작하기 

ChatGPT 인터페이스를 통해 GPT-4o Mini를 사용해 볼 수 있습니다. 아래와 같이 GPT-3.5를 대체하여 Free, Plus 및 Team 사용자가 액세스할 수 있습니다. Enterprise 사용자도 곧 액세스할 수 있게 될 것이며, 이는 모든 사용자에게 AI 혜택을 제공하고자 하는 OpenAI의 목표와 일치합니다. GPT-4o Mini는 해당 기능을 애플리케이션에 통합하려는 개발자를 위해 API를 통해서도 사용할 수 있습니다. 현재 시각 기능은 API를 통해서만 액세스할 수 있습니다.

__wf_reserved_inherit
그림 2. ChatGPT 내 모델 옵션.

GPT-4o와 GPT-4o Mini의 차이점 

GPT-4o Mini와 GPT-4o는 다양한 벤치마크에서 모두 인상적인 성능을 보입니다. GPT-4o가 일반적으로 GPT-4o Mini보다 성능이 뛰어나지만, GPT-4o Mini는 일상적인 작업에 적합한 비용 효율적인 솔루션입니다. 벤치마크에는 추론 작업, 수학 및 코딩 능력, 멀티모달 추론이 포함됩니다. 아래 이미지에서 볼 수 있듯이 GPT-4o Mini는 다른 인기 모델과 비교했을 때 상당히 높은 벤치마크 점수를 기록합니다.

__wf_reserved_inherit
그림 3. GPT-4o Mini와 다른 인기 모델 비교.

GPT-4o 및 GPT-4o Mini 직접 사용해 보기

온라인에서 논쟁이 되고 있는 흥미로운 프롬프트는 인기 LLM이 소수 숫자를 잘못 비교하는 것과 관련이 있습니다. GPT-4o와 GPT-4o Mini를 테스트했을 때 추론 능력에서 명확한 차이를 보였습니다. 아래 이미지에서 두 모델 모두에게 9.11과 9.9 중 어느 것이 더 큰지 묻고 그 이유를 설명하도록 했습니다.

__wf_reserved_inherit
그림 4. GPT-4o 및 GPT-4o Mini 테스트.

두 모델 모두 처음에는 9.11이 더 크다고 잘못 응답합니다. 그러나 GPT-4o는 올바른 답을 추론하여 9.9가 더 크다고 말합니다. 자세한 설명을 제공하고 소수를 정확하게 비교합니다. 반면 GPT-4o Mini는 9.9가 더 큰 이유를 정확히 파악했음에도 불구하고 완고하게 처음의 잘못된 답변을 유지합니다.

두 모델 모두 강력한 추론 능력을 보여줍니다. GPT-4o는 스스로 오류를 수정하는 능력이 있어 더욱 복잡한 작업에 유용합니다. GPT-4o Mini는 적응성은 떨어지지만 더 간단한 작업에 대해서는 명확하고 정확한 추론을 제공합니다. 

다양한 컴퓨터 비전 사용 사례에 GPT-4o Mini 활용

코드를 직접 작성하지 않고 GPT-4o Mini의 시각 기능을 탐색하려면 OpenAI Playground에서 API를 쉽게 테스트할 수 있습니다. GPT-4o Mini가 다양한 컴퓨터 비전 관련 사용 사례를 얼마나 잘 처리하는지 알아보기 위해 직접 사용해 보았습니다.

GPT-4o Mini를 사용한 이미지 분류

GPT-4o Mini에게 두 이미지를 분류하도록 요청했습니다. 하나는 나비 이미지이고 다른 하나는 지도 이미지입니다. AI 모델은 나비와 지도를 성공적으로 식별했습니다. 이미지가 매우 다르기 때문에 비교적 간단한 작업입니다.

__wf_reserved_inherit
그림 5. GPT-4o Mini의 도움으로 이미지 분류.

계속해서 모델에 두 장의 이미지를 추가로 실행했습니다. 하나는 식물에 앉아 있는 나비를 보여주고 다른 하나는 땅에 앉아 있는 나비를 보여줍니다. AI는 식물에 있는 나비와 땅에 있는 나비를 정확하게 식별하여 또 다시 훌륭한 결과를 보여주었습니다. 그래서 한 단계 더 나아갔습니다.

__wf_reserved_inherit
그림 6. GPT-4o Mini를 사용하여 유사한 이미지 분류.

다음으로 GPT-4o Mini에게 두 이미지를 분류하도록 요청했습니다. 하나는 박주가리 꽃을 먹고 있는 나비를 보여주고 다른 하나는 백일홍 꽃을 먹고 있는 나비를 보여줍니다. 모델이 추가 미세 조정 없이도 매우 구체적인 라벨을 분류할 수 있다는 점이 놀랍습니다. 이 간단한 예시들은 GPT-4o Mini가 맞춤형 학습 없이도 이미지 분류 작업에 사용될 수 있음을 보여줍니다.

__wf_reserved_inherit
그림 7. GPT-4o Mini를 사용하여 상세 이미지 분류.

GPT-4o Mini를 사용한 자세 이해

현재 객체 탐지인스턴스 분할과 같은 컴퓨터 비전 작업은 GPT-4o Mini를 사용하여 처리할 수 없습니다. GPT-4o는 정확도 면에서 어려움을 겪지만, 이러한 작업에 활용될 수 있습니다. 이와 관련하여 자세 이해와 관련해서는 이미지에서 자세를 탐지하거나 추정할 수는 없지만, 자세를 분류하고 이해할 수 있습니다.

__wf_reserved_inherit
그림 8. 이미지 속 자세를 이해하기 위해 GPT-4o Mini 사용. 

위 이미지는 GPT-4o Mini가 자세의 정확한 좌표를 탐지하거나 추정할 수는 없지만, 일반적인 자세를 분류하고 이해할 수 있는 방법을 보여줍니다. 이는 다양한 애플리케이션에서 유용할 수 있습니다. 예를 들어, 스포츠 분석에서 운동선수의 움직임을 광범위하게 평가하고 부상을 예방하는 데 도움이 될 수 있습니다. 마찬가지로 물리 치료에서는 재활 중인 환자의 정확한 움직임을 확인하기 위해 운동을 모니터링하는 데 도움이 될 수 있습니다. 또한 감시의 경우, 일반적인 몸짓을 분석하여 의심스러운 활동을 식별하는 데 도움이 될 수 있습니다. GPT-4o Mini는 특정 핵심 지점을 탐지할 수는 없지만, 일반적인 자세를 분류하는 능력 덕분에 이러한 분야 및 다른 분야에서 유용하게 사용될 수 있습니다.

GPT-4o Mini에 적합한 애플리케이션

GPT-4o Mini가 할 수 있는 일을 살펴보았습니다. 이제 GPT-4o Mini를 사용하는 것이 가장 적합한 애플리케이션에 대해 논의해 보겠습니다.

GPT-4o Mini는 고급 자연어 이해가 필요하고 작은 컴퓨팅 공간을 필요로 하는 애플리케이션에 적합합니다. AI 통합 비용이 너무 많이 드는 애플리케이션에 AI를 통합할 수 있게 해줍니다. 실제로 Artificial Analysis의 상세 분석에 따르면 GPT-4o Mini는 대부분의 다른 모델에 비해 매우 빠른 속도로 고품질 응답을 제공합니다.

__wf_reserved_inherit
그림 9. GPT-4o Mini의 품질 대 출력 속도.

다음은 미래에 두각을 나타낼 수 있는 주요 영역입니다.

  • 가상 비서 및 챗봇: GPT-4o Mini는 빠르고 스마트한 응답을 제공하여 사용자 상호 작용을 개선할 수 있습니다.
  • 교육 도구: 이 모델은 개인 맞춤형 튜터링 및 콘텐츠 생성을 제공하는 도구를 구축하는 데 사용될 수 있습니다.
  • 생산성 도구: 문서 요약, 이메일 초안 작성, 언어 번역과 같은 작업을 개선하여 효율성을 높일 수 있습니다.
  • 언어 번역: 최신 버전의 GPT를 사용하여 다양한 언어 간의 더 나은 의사 소통을 위해 정확하고 실시간 언어 번역을 제공하는 번역기를 개발할 수 있습니다.

GPT-4o Mini, 새로운 가능성을 열다

GPT-4o Mini는 멀티모달 AI의 미래를 위한 새로운 기회를 창출하고 있습니다. 텍스트 또는 데이터의 각 부분을 처리하는 데 드는 비용(토큰당 비용)은 GPT-3 모델인 text-davinci-003이 출시된 2022년 이후 거의 99%나 크게 감소했습니다. 비용 감소는 고급 AI를 더욱 저렴하게 만들려는 명확한 추세를 보여줍니다. AI 모델이 계속 발전함에 따라 모든 앱과 웹사이트에 AI를 통합하는 것이 경제적으로 실현 가능성이 높아지고 있습니다!

AI를 직접 사용해보고 싶으신가요? GitHub 저장소를 방문하여 Ultralytics의 혁신을 확인하고 활발한 커뮤니티에 참여하세요. 솔루션 페이지에서 제조농업 분야의 AI 애플리케이션에 대해 자세히 알아보세요.

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.