Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

GPU (графический процессор)

Узнайте, как GPU совершают революцию в области ИИ и машинного обучения, ускоряя глубокое обучение, оптимизируя рабочие процессы и обеспечивая применение в реальных условиях.

Графический процессорGPU) - это специализированная электронная схема, изначально предназначенная для ускорения создания и рендеринга компьютерной графики и изображений. Хотя его его истоки лежат в играх и рендеринге видео, GPU превратился в важнейший компонент современных вычислений благодаря своей уникальной архитектуре. его уникальной архитектуре. В отличие от стандартного процессора, который обрабатывает задачи последовательно, GPU состоит из тысяч меньших, эффективных ядер, способных одновременно обрабатывать огромные блоки данных. Эта параллельная архитектура сделала сделала GPU незаменимыми в таких областях, как искусственный интеллект (ИИ) и машинного обучения (ML), где они значительно сокращают время, необходимое для обучения сложных алгоритмов.

Сила параллельных вычислений

Основное преимущество GPU заключается в параллельных вычислениях. Современные рабочие нагрузки ИИ, особенно те, которые связаны с глубокое обучение (DL) и Нейронные сети (НС), в значительной степени зависят от матричных операций. которые требуют больших вычислительных затрат, но при этом повторяются. GPU может распределить эти задачи между тысячами своих ядер, выполняя их все одновременно.

Эта возможность была ярко продемонстрирована успехом архитектуры архитектуры AlexNet, которая продемонстрировала, что графические процессоры могут обучать конволюционные нейронные сети (CNN) значительно быстрее, чем традиционные процессоры. Сегодня это ускорение позволяет исследователям выполнять обучение моделей за несколько часов, а не недель. Вычислительная Производительность этих устройств часто измеряется в FLOPS (операции с плавающей запятой в секунду), стандартной стандартная метрика для высокопроизводительных вычислений.

Аппаратные различия: GPU vs. CPU vs. TPU

Чтобы понять, какое место занимают графические процессоры в аппаратном ландшафте, полезно сравнить их с другими распространенными процессорами:

  • CPU (Central Processing Unit): CPU - это "мозг" компьютера общего назначения, состоящий из меньшего количества более мощных ядер для для выполнения последовательных задач и сложной логики. Он идеально подходит для работы операционных систем, но менее эффективен для массивного параллелизма, необходимого для ИИ.
  • GPU (графический процессор): Оптимизированный для повышения производительности, GPU отлично справляется с параллельными задачами. Ведущие производители, такие как NVIDIA и AMD, предоставляют надежные экосистемы, такие как CUDA и ROCm, которые позволяют разработчикам напрямую использовать эту мощь для приложений искусственного интеллекта.
  • TPU Tensor Processing Unit): TPU - это интегральная схема для конкретных приложений (ASIC), разработанная Google Cloud специально для ускорения рабочих нагрузок машинного обучения. Хотя TPU высокоэффективны для tensor операций в таких фреймворках, как TensorFlowно GPU остаются более универсальными для более широкого более широкого спектра задач.

Приложения реального мира в искусственном интеллекте

Внедрение GPU способствовало развитию инноваций в различных отраслях:

  • Автономное вождение: Для самоуправляемых автомобилей требуется обработка данных с камер, радаров и датчиков LiDAR в режиме реального времени, и датчиков LiDAR. Графические процессоры обеспечивают Модели обнаружения объектов, которые идентифицируют пешеходов, других транспортных средств и дорожных знаков, что является краеугольным камнем ИИ в автомобилестроении.
  • Медицинская визуализация: В здравоохранении графические процессоры ускоряют анализ снимков высокого разрешения, таких как МРТ и КТ. Они позволяют моделям сегментации изображений точно очерчивать опухоли или органы, помогая радиологам быстрее и точнее ставить диагнозы. Эта технология жизненно важна для развития ИИ в здравоохранении.

Использование графических процессоров для обучения моделей

При использовании ultralytics Использование GPU позволяет значительно ускорить процесс обучения. Библиотека библиотека поддерживает автоматическое определение оборудования, но пользователи также могут вручную указать устройство, чтобы обеспечить использование GPU задействован.

В следующем примере показано, как обучить модель YOLO11 на первом доступном GPU:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

Оптимизация и пограничное развертывание

Помимо обучения, графические процессоры играют важнейшую роль в Развертывании моделей. Для приложений, требующих Выводы в реальном времени, обученные модели часто оптимизируются с помощью таких инструментов, как NVIDIA TensorRT или ONNX Runtime. Эти инструменты реструктурируют нейронную сеть, чтобы максимально использовать специфической архитектуры GPU, снижая задержки. Кроме того, развитие Edge AI привело к разработке компактных и энергоэффективных GPU, способных выполнять сложные задачи, энергоэффективных графических процессоров, способных выполнять сложные задачи компьютерного зрения (CV) непосредственно на локальных устройствах, что снижает зависимость от облачного подключения.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас