Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

CPU

Explore o papel vital da CPU na IA e na aprendizagem automática. Saiba mais sobre seu uso na preparação de dados, inferência e como ela se compara às GPUs/TPUs.

Uma Unidade Central de ProcessamentoCPU) é o componente principal de um computador que actua como centro de controlo, executando instruções e orquestrando o fluxo de dados através do sistema. Muitas vezes referida como o "cérebro" do dispositivo, a CPU lida com tarefas de computação de uso geral, como a execução do sistema operativo e gerir as operações de entrada/saída. No contexto da inteligência artificial (IA) e aprendizagem automática (ML), a CPU desempenha um papel fundamental. Embora possa não oferecer o paralelismo maciço necessário para o para o treino de modelos pesados, é fundamental para o pré-processamento de dados, gerir a lógica do sistema e executar a inferência em dispositivos periféricos onde o consumo de energia e os custos de hardware são limitações.

CPU vs. GPU e TPU

Compreender o panorama do hardware é essencial para otimizar as operações de aprendizagem automática (MLOps). A CPU difere significativamente de aceleradores como GPUs e TPUs em termos de arquitetura e utilização pretendida:

Papel nos fluxos de trabalho de IA

Embora as GPUs sejam frequentemente o foco da formação, a CPU continua a ser indispensável durante todo o ciclo de vida da IA.

  1. Pré-processamento de dados: Antes de um modelo poder "ver" os dados, as imagens ou o texto têm de ser carregados e transformados. Operações como redimensionamento, normalização e normalização e aumento de dados são normalmente tratadas pela pela CPU usando bibliotecas como NumPy e OpenCV. O processamento eficiente CPU evita que a GPU fique inativa enquanto espera pelos dados.
  2. Pós-processamento: Depois de um modelo gerar previsões em bruto, a CPU efectua frequentemente cálculos finais. Por exemplo, na deteção de objectos, a CPU executa a Supressão Não Máxima (NMS) para para filtrar caixas delimitadoras sobrepostas e reter as detecções mais confiáveis.
  3. Inferência de bordas: Em muitos cenários do mundo real, a implantação de GPUs caras não é viável. A IA de ponta depende fortemente de CPUs para executar modelos modelos leves em dispositivos como o Raspberry Pi ou telemóveis telemóveis.

Aplicações no Mundo Real

As CPUs facilitam uma vasta gama de aplicações em que a versatilidade e a eficiência energética têm prioridade sobre o rendimento bruto. rendimento bruto.

  • Sistemas de vigilância inteligentes: Muitos sistemas de segurança utilizam algoritmos de deteção de movimento que funcionam em CPUs normais. Ao processar feeds de vídeo localmente no dispositivo de gravação, o sistema pode acionar alertas ou iniciar a gravação apenas quando é detectada atividade, poupando armazenamento e largura de banda sem necessitar de uma GPU dedicada.
  • IoT industrial (IIoT): Na indústria transformadora, sistemas de manutenção preditiva funcionam frequentemente em nas CPUs incorporadas dos controladores industriais. Estes sistemas monitorizam os dados dos sensores (vibração, temperatura) em tempo real para prever falhas de máquinas utilizando modelos de regressão ou classificação ligeiros, garantindo que a automatização do fabrico funcione sem problemas.

Executar a inferência na CPU

Os programadores utilizam frequentemente a CPU para depurar, testar ou implementar modelos em ambientes que não dispõem de hardware especializado. Estruturas como PyTorch permitem aos utilizadores direcionar explicitamente a CPU. Além disso, a conversão de modelos para formatos como ONNX ou usando o kit de ferramentas kit de ferramentasOpenVINO pode otimizar significativamente velocidades de inferência em CPUs Intel .

O exemplo a seguir demonstra como forçar o Ultralytics YOLO11 a executar a inferência na CPU. Isto é particularmente útil para aferir o desempenho em hardware padrão.

from ultralytics import YOLO

# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")

# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Display the detection results
results[0].show()

Utilizar o device="cpu" garante que a computação permanece no processador central, permitindo que os programadores verifiquem a compatibilidade do modelo com computação sem servidor ou dispositivos de ponta de baixo consumo dispositivos de ponta.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora