Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Небольшие языковые модели (SLM)

Узнайте, как небольшие языковые модели (SLM) позволяют реализовать эффективный, конфиденциальный и недорогой ИИ на периферийных устройствах. Узнайте, как использовать SLM в сочетании с Ultralytics для периферийного ИИ.

Малые языковые модели (SLM) — это оптимизированные модели искусственного интеллекта, предназначенные для эффективного понимания и генерации человеческого языка. В отличие от своих более крупных аналогов, SLM обычно имеют от нескольких миллионов до примерно 15 миллиардов параметров, что позволяет им работать локально на пограничных устройствах, не требуя при этом использования мощной облачной вычислительной инфраструктуры. Благодаря локальной работе эти модели обеспечивают более быструю обработку данных, повышенную конфиденциальность пользователей и значительное снижение затрат на развертывание.

Дифференциация ключевых терминов

Чтобы лучше понять ситуацию в сфере искусственного интеллекта, полезно провести разграничение между SLM и смежными технологиями:

  • SLM и большие языковые модели (LLM): В то время как LLM содержат сотни миллиардов параметров и требуют значительных серверных ресурсов, SLM отличаются высокой степенью оптимизации. Это позволяет им работать с минимальной задержкой при вычислении, что делает их идеальным выбором для специализированных приложений в конкретных областях, где нет необходимости в огромных масштабах.
  • SLM и модели «зрение-язык» (VLM): SLM в первую очередь ориентированы на задачи обработки естественного языка. В отличие от них, VLM изначально способны интерпретировать как текст, так и изображения. Однако в настоящее время многие разработчики сочетают SLM с быстрыми моделями обработки изображений для создания облегченных мультимодальных систем.

Применение в реальном мире

Небольшие языковые модели стремительно преобразуют различные отрасли, обеспечивая доступ к передовым интеллектуальным технологиям непосредственно в потребительской электронике и корпоративных сетях.

Внедрение SLM в современные рабочие процессы

Последние прорывы в 2024 и 2025 годах доказали, что высококачественные обучающие данные позволяют достичь результатов, сопоставимых с массивными моделями предыдущих лет. Такие инновации, как GemmaGoogle и Llama 3 8B от Meta, демонстрируют, насколько мощными стали архитектуры меньшего размера.

При создании комплексных решений на базе искусственного интеллекта разработчики часто используют Python для интеграции лингвистического мышления SLM с визуальной точностью инструментов, доступных на Ultralytics . Например, SLM, работающий на устройстве, может обработать голосовую команду для запуска задачи компьютерного зрения. Следующий лаконичный фрагмент кода демонстрирует, как загрузить облегченную модель, такую как Ultralytics , для отслеживания объектов — операция, хорошо подходящая для того же периферийного оборудования, на котором работает SLM:

from ultralytics import YOLO

# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")

# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")

Уделяя приоритетное внимание локальному выполнению задач, инженеры значительно сокращают потребности в пропускной способности и эксплуатационные расходы. По мере того как отрасль продолжает развивать технологии Edge AI, мощное сочетание оптимизированного компьютерного зрения и эффективных небольших языковых моделей станет движущей силой следующего поколения интеллектуальных автономных систем.

Давайте вместе создадим будущее искусственного интеллекта!

Начните свой путь в будущее машинного обучения