Изучите возможности и приложения GPT-4o Mini. Новейшая и самая экономичная модель OpenAI предлагает расширенные возможности ИИ на 60% дешевле, чем GPT-3.5 Turbo.
Изучите возможности и приложения GPT-4o Mini. Новейшая и самая экономичная модель OpenAI предлагает расширенные возможности ИИ на 60% дешевле, чем GPT-3.5 Turbo.
В мае 2024 года OpenAI выпустила GPT-4o, и теперь, всего три месяца спустя, они вернулись с еще одной впечатляющей моделью: GPT-4o Mini. 18 июля 2024 года OpenAI представила GPT-4o Mini. Они называют ее своей “самой экономичной моделью”! GPT-4o Mini - это компактная модель, которая опирается на возможности предыдущих моделей и направлена на то, чтобы сделать передовой AI более доступным и доступным по цене.
GPT-4o Mini в настоящее время поддерживает текстовое и визуальное взаимодействие, и в будущих обновлениях ожидается добавление возможностей для обработки изображений, видео и аудио. В этой статье мы рассмотрим, что такое GPT-4o Mini, его выдающиеся особенности, как его можно использовать, различия между GPT-4 и GPT-4o Mini, и как его можно использовать в различных вариантах использования компьютерного зрения. Давайте углубимся и посмотрим, что может предложить GPT-4o Mini!
GPT-4o Mini — это новейшее дополнение к линейке моделей ИИ от OpenAI, разработанное, чтобы быть более экономичным и доступным. Это мультимодальная большая языковая модель (LLM), что означает, что она может обрабатывать и генерировать различные типы данных, такие как текст, изображения, видео и аудио. Модель опирается на сильные стороны предыдущих моделей, таких как GPT-4 и GPT-4o, чтобы предложить мощные возможности в компактном корпусе.
GPT-4o Mini на 60% дешевле, чем GPT-3.5 Turbo, и стоит 15 центов за миллион входных токенов (единиц текста или данных, которые обрабатывает модель) и 60 центов за миллион выходных токенов (единиц, которые модель генерирует в ответ). Чтобы представить это в перспективе, один миллион токенов примерно эквивалентен обработке 2500 страниц текста. С контекстным окном в 128 тысяч токенов и возможностью обрабатывать до 16 тысяч выходных токенов на запрос, GPT-4o Mini разработан, чтобы быть одновременно эффективным и доступным.

GPT-4o Mini поддерживает ряд задач, которые делают его отличным вариантом для различных приложений. Его можно использовать при одновременном выполнении нескольких операций, таких как вызов нескольких API, работа с большими объемами данных, такими как полные базы кода или истории разговоров, и предоставление быстрых ответов в режиме реального времени в чат-ботах поддержки клиентов.
Вот еще несколько ключевых особенностей:
Вы можете попробовать использовать GPT-4o Mini через интерфейс ChatGPT . Он доступен для пользователей Free, Plus и Team, заменяя GPT-3.5, как показано ниже. Корпоративные пользователи также получат доступ в ближайшее время, что соответствует цели OpenAI - предоставить преимущества ИИ для всех. GPT-4o Mini также доступен через API для разработчиков, которые хотят интегрировать его возможности в свои приложения. На данный момент возможности технического зрения доступны только через API.

GPT-4o Mini и GPT-4o демонстрируют впечатляющие результаты по различным тестам. Хотя GPT-4o в целом превосходит GPT-4o Mini, GPT-4o Mini по-прежнему является экономически эффективным решением для повседневных задач. Тесты включают задачи рассуждения, математические и кодировочные навыки, а также мультимодальное рассуждение. Как показано на изображении ниже, GPT-4o Mini показывает довольно высокие результаты по сравнению с другими популярными моделями.

Интересный вопрос, который обсуждался в сети, касается некорректного сравнения десятичных чисел популярными LLM. Когда мы подвергли GPT-4o и GPT-4o Mini испытанию, их способности к рассуждению показали явные различия. На изображении ниже мы спросили обе модели, что больше: 9,11 или 9,9, а затем попросили их объяснить свои рассуждения.

Обе модели изначально отвечают неверно и утверждают, что 9.11 больше. Однако GPT-4o может логически прийти к правильному ответу и заявляет, что 9.9 больше. Он предоставляет подробное объяснение и точно сравнивает десятичные дроби. В отличие от него, GPT-4o Mini упорно придерживается своего первоначального неправильного ответа, несмотря на то, что правильно понял логику, лежащую в основе того, что 9.9 больше.
Обе модели демонстрируют сильные навыки рассуждения. Способность GPT-4o исправлять себя делает его превосходным и полезным для более сложных задач. GPT-4o Mini, хотя и менее адаптивен, по-прежнему предлагает четкие и точные рассуждения для более простых задач.
Если вы предпочитаете изучить возможности машинного зрения GPT-4o Mini, не углубляясь в код, вы можете легко протестировать API на OpenAI Playground. Мы сами попробовали это, чтобы увидеть, насколько хорошо GPT-4o Mini справляется с различными вариантами использования, связанными с компьютерным зрением.
Мы попросили GPT-4o Mini classify два изображения: бабочку и карту. ИИ-модель успешно определила бабочку и карту. Это довольно простая задача, учитывая, что изображения очень разные.

Мы пошли дальше и пропустили через модель еще два изображения: одно с бабочкой, сидящей на растении, и другое с бабочкой, сидящей на земле. ИИ снова отлично справился, правильно определив бабочку на растении и бабочку на земле. Итак, мы пошли еще дальше.

Затем мы попросили GPT-4o Mini classify два изображения: на одном изображена бабочка, питающаяся цветами болотной молочницы, а на другом - бабочка, питающаяся цветами циннии. Удивительно, что модель смогла classify столь специфическую метку без дополнительной настройки. Эти быстрые примеры показывают, что GPT-4o Mini можно использовать для задач классификации изображений, не требующих специального обучения.

На данный момент задачи компьютерного зрения, такие как обнаружение объектов и сегментация экземпляров, не могут быть решены с помощью GPT-4o Mini. GPT-4o борется за точность, но может быть использован для таких задач. Что касается понимания позы, то мы не можем detect или оценить позу на изображении, но мы можем classify и понять позу.

На изображении выше показано, как GPT-4o Mini может classify и понимать позы, несмотря на то, что не может detect или оценить точные координаты позы. Это может быть полезно в различных приложениях. Например, в спортивной аналитике он может широко оценить движения спортсменов и помочь предотвратить травмы. Аналогично, в физиотерапии он может помочь в мониторинге упражнений, чтобы убедиться, что пациенты выполняют правильные движения во время реабилитации. Кроме того, в видеонаблюдении он может помочь выявить подозрительные действия, анализируя общий язык тела. Хотя GPT-4o Mini не может detect конкретные ключевые точки, его способность classify общие позы делает его полезным в этих и других областях.
Мы рассмотрели, что может делать GPT-4o Mini. Теперь давайте обсудим приложения, в которых наиболее оптимально использовать GPT-4o Mini.
GPT-4o Mini отлично подходит для приложений, требующих расширенного понимания естественного языка и небольшой вычислительной нагрузки. Он позволяет интегрировать ИИ в приложения, где это обычно было бы слишком дорого. Фактически, подробный анализ, проведенный Artificial Analysis, показывает, что GPT-4o Mini обеспечивает высококачественные ответы с молниеносной скоростью по сравнению с большинством других моделей.

Вот некоторые ключевые области, в которых он может проявить себя в будущем:
GPT-4o Mini открывает новые возможности для будущего мультимодального ИИ. Расходы на обработку каждого фрагмента текста или данных, известные как стоимость за токен, значительно снизились — почти на 99% — с 2022 года, когда была выпущена модель GPT-3 text-davinci-003. Снижение стоимости показывает четкую тенденцию к тому, чтобы сделать передовой ИИ более доступным. Поскольку модели ИИ продолжают совершенствоваться, становится все более вероятным, что интеграция ИИ в каждое приложение и веб-сайт станет экономически целесообразной!
Хотите поработать с ИИ на практике? Посетите наш репозиторий на GitHub, чтобы ознакомиться с нашими инновациями и стать частью нашего активного сообщества. Узнайте больше о применении ИИ в производстве и сельском хозяйстве на страницах с нашими решениями.