Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Longformer

Откройте для себя Longformer, модель-трансформер, оптимизированную для длинных последовательностей, обеспечивающую масштабируемую эффективность для NLP, геномики и анализа видео.

Longformer - это модифицированная архитектура Transformer разработанная для эффективной обработки длинных последовательностей данных, преодолевая ограничения на длину входных данных традиционных моделей таких как BERT. Хотя стандартные трансформеры являются мощными, их потребление памяти квадратично зависит от длины последовательности, что делает их вычислительно дорогими для документов длиной более нескольких сотен слов. Longformer решает эту проблему, используя механизм разреженного внимания, который масштабируется линейно, что позволяет ему обрабатывать документы, состоящие из тысяч лексем. Эта возможность делает его краеугольным камнем технологией для современной обработки естественного языка (NLP) задач, связанных с обширными текстами, таких как анализ юридических контрактов, краткое изложение книг или обработка геномных данных.

Архитектура: Рассеянное внимание

Ключевой инновацией Longformer является отказ от полного самовнимания, используемого в стандартных моделях глубокого обучения (DL). В традиционной системе каждый токен обращается к каждому другому токену, создавая плотную сеть связей, которая быстро истощает память. Longformer заменяет это более эффективным, разреженным подходом, который сохраняет высокую производительность при снижении вычислительную сложность.

  • Раздвижное окно Внимание: Вдохновленный локальной связностью Конволюционная нейронная сеть (CNN), Longformer использует скользящее окно, в котором каждый маркер обращает внимание только на своих ближайших соседей. Это позволяет уловить локальный контекст, необходимый для понимания синтаксиса и структуры предложения.
  • Глобальное внимание: Чтобы понять более широкий контекст документа, назначаются определенные лексемы для восприятия всей последовательности. Это позволяет модели выполнять такие задачи, как ответы на вопросы или классификация путем агрегируя информацию из всего исходного материала, преодолевая разрыв между локальными деталями и глобальным пониманием.

Этот гибридный механизм позволяет исследователям обрабатывать последовательности из 4 096 токенов и более на стандартном оборудовании, значительно расширяя контекстное окно, доступное для анализа.

Применение в реальном мире

Способность анализировать длинные последовательности без усечения открыла новые возможности в различных областях, где непрерывность данных имеет решающее значение. непрерывность данных имеет решающее значение.

  • Резюме юридических и финансовых документов: Специалистам часто требуется извлечь информацию из объемных договоров или годовых отчетов. Longformer предлагает передовые инструменты для обобщения текста, которые могут проанализировать весь документ за один проход, гарантируя, что критически важные пункты в конце договора будут рассмотрены наряду с введение.
  • Геномные исследования: В области биоинформатики ученые анализируют последовательности ДНК, которые функционируют как чрезвычайно длинные строки биологического текста. Longformer помогает в определении функций генов и предсказании структуры белков. путем моделирования дальнодействующих зависимостей, присущих генетическим кодам, что ранее было сложной задачей для стандартных моделей большого языка (LLM).

Отличие лонгформера от смежных понятий

Полезно сравнить Longformer с другими архитектурами, чтобы выбрать подходящий инструмент для конкретных проектов в области искусственного интеллекта (ИИ).

  • Трансформер: Оригинальная Архитектура обеспечивает полную связность ($O(n^2)$) и идеально подходит для коротких предложений, но становится нехваткой памяти для длинных предложений. Longformer приближается к этому со сложностью $O(n)$.
  • Реформер: Как и Longformer, Reformer нацелен на эффективность, но достигает ее с помощью локально-чувствительного хэширования (LSH) для группировки схожих лексем и обратимых остаточных слоев. Longformer часто предпочитают использовать для задач, требующих строго определенного локальных контекстов (соседние слова), в то время как Reformer полезен, когда память является абсолютным узким местом.
  • Трансформер-XL: Эта модель обрабатывает длину через рекурсию, сохраняя память о прошлых сегментах. Longformer обрабатывает всю длинную последовательность одновременно, что может быть полезно для неавторегрессионных задач, таких как классификация документов.

Пример эффективного вывода

Подобно тому, как Longformer оптимизирует обработку текста по скорости и памяти, современные модели зрения оптимизируют обработку изображений. На сайте В следующем примере используется Ultralytics YOLO11 чтобы продемонстрировать эффективного вывода. Это параллельно концепции использования оптимизированных архитектур для обработки сложных входных данных без не перегружая аппаратные ресурсы.

from ultralytics import YOLO

# Load a YOLO11 model, optimized for efficiency similar to Longformer's design goals
model = YOLO("yolo11n.pt")

# Perform inference on an image URL
# The model processes the input effectively in a single pass
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Output the detection summary
for result in results:
    print(f"Detected {len(result.boxes)} objects.")

Благодаря уменьшению объема памяти, необходимого для обработки больших входных данных, Longformer позволяет разработчикам создавать более сложные агенты ИИ и аналитические инструменты. Этот сдвиг в сторону линейной масштабируемости необходим для будущего развертывания моделей, гарантируя, что мощный ИИ остается доступным и эффективным.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас