Explore o papel vital da CPU na IA e na aprendizagem automática. Saiba mais sobre seu uso na preparação de dados, inferência e como ela se compara às GPUs/TPUs.
Uma Unidade Central de ProcessamentoCPU) é o componente principal de um computador que actua como centro de controlo, executando instruções e orquestrando o fluxo de dados através do sistema. Muitas vezes referida como o "cérebro" do dispositivo, a CPU lida com tarefas de computação de uso geral, como a execução do sistema operativo e gerir as operações de entrada/saída. No contexto da inteligência artificial (IA) e aprendizagem automática (ML), a CPU desempenha um papel fundamental. Embora possa não oferecer o paralelismo maciço necessário para o para o treino de modelos pesados, é fundamental para o pré-processamento de dados, gerir a lógica do sistema e executar a inferência em dispositivos periféricos onde o consumo de energia e os custos de hardware são limitações.
Compreender o panorama do hardware é essencial para otimizar as operações de aprendizagem automática (MLOps). A CPU difere significativamente de aceleradores como GPUs e TPUs em termos de arquitetura e utilização pretendida:
Embora as GPUs sejam frequentemente o foco da formação, a CPU continua a ser indispensável durante todo o ciclo de vida da IA.
As CPUs facilitam uma vasta gama de aplicações em que a versatilidade e a eficiência energética têm prioridade sobre o rendimento bruto. rendimento bruto.
Os programadores utilizam frequentemente a CPU para depurar, testar ou implementar modelos em ambientes que não dispõem de hardware especializado. Estruturas como PyTorch permitem aos utilizadores direcionar explicitamente a CPU. Além disso, a conversão de modelos para formatos como ONNX ou usando o kit de ferramentas kit de ferramentasOpenVINO pode otimizar significativamente velocidades de inferência em CPUs Intel .
O exemplo a seguir demonstra como forçar o Ultralytics YOLO11 a executar a inferência na CPU. Isto é particularmente útil para aferir o desempenho em hardware padrão.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Display the detection results
results[0].show()
Utilizar o device="cpu" garante que a computação permanece no processador central,
permitindo que os programadores verifiquem a compatibilidade do modelo com
computação sem servidor ou dispositivos de ponta de baixo consumo
dispositivos de ponta.