Glossário

CPU

Explore o papel vital da CPU na IA e na aprendizagem automática. Saiba mais sobre seu uso na preparação de dados, inferência e como ela se compara às GPUs/TPUs.

Uma Unidade Central de Processamento (CPU) é o componente principal de um computador que executa instruções e efectua a maior parte do processamento dentro de um dispositivo informático. Muitas vezes designada por "cérebro" do computador, a sua principal função é executar as sequências de instruções que constituem um programa de computador. No contexto da aprendizagem automática (ML) e da inteligência artificial (IA), a CPU é um elemento fundamental que gere todo o sistema, trata da preparação de dados e executa tarefas que não são adequadas para hardware especializado. Embora possa não efetuar a maior parte dos cálculos pesados durante a formação do modelo, o seu papel é indispensável para um fluxo de trabalho de IA completo.

CPU vs. GPU e TPU

A principal diferença entre CPUs, GPUs e TPUs reside na sua arquitetura e na finalidade pretendida:

Mesmo em sistemas que dependem fortemente de GPUs ou TPUs para modelos de treinamento, a CPU gerencia o sistema geral, prepara dados para o acelerador e lida com partes do fluxo de trabalho não otimizadas para computação paralela. Compreender essas compensações é crucial para a implantação eficiente de modelos.

Exemplos de IA/ML do mundo real utilizando CPU

Embora o hardware especializado se destaque na formação em grande escala, as CPUs continuam a ser vitais para muitas tarefas de IA, especialmente em ambientes com restrições específicas.

  1. Pré-processamento do processamento de linguagem natural (PNL): Antes de os dados de texto serem introduzidos num modelo para treino ou inferência, têm de ser pré-processados. Tarefas como a tokenização, em que o texto é dividido em unidades mais pequenas, são fundamentais na PNL. Bibliotecas como a Hugging Face's Tokenizers geralmente executam essas operações sequenciais de forma eficiente na CPU antes que os dados processados sejam enviados para uma GPU.
  2. Inferência de dispositivos de ponta: Muitas aplicações Edge AI implementam modelos ML em dispositivos com potência e recursos computacionais limitados, como um Raspberry Pi ou dispositivos baseados na arquitetura ARM. Nesses cenários, a inferência geralmente é executada diretamente na CPU do dispositivo. Bibliotecas optimizadas como o TensorFlow Lite ou o kit de ferramentas OpenVINO são utilizadas para obter um desempenho aceitável para tarefas como a deteção básica de objectos ou a deteção de palavras-chave. A gestão destas implementações pode ser simplificada através de plataformas como o Ultralytics HUB e ferramentas de contentorização como o Docker.

Compreender as capacidades e limitações da CPU é crucial para conceber e otimizar sistemas de IA de ponta a ponta, desde o tratamento da recolha de dados até à obtenção de uma implementação eficiente em diversas plataformas de hardware. Este é um aspeto fundamental de uma estratégia de MLOps bem-sucedida.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência