Glossário

IA generativa

Descubra como a IA generativa cria conteúdos originais, como texto, imagens e áudio, transformando os sectores com aplicações inovadoras.

A IA generativa é uma categoria de sistemas de inteligência artificial (IA) que pode criar conteúdos novos e originais, incluindo texto, imagens, áudio e vídeo. Ao contrário da IA tradicional que analisa ou actua sobre os dados existentes, os modelos generativos aprendem os padrões e estruturas subjacentes a partir de um vasto corpus de dados de formação para produzir novos resultados que imitam as caraterísticas dos dados em que foram treinados. Esta tecnologia é alimentada por modelos complexos de aprendizagem profunda, como os modelos de linguagem de grande dimensão (LLM), que se tornaram cada vez mais acessíveis e poderosos.

Como funciona a IA generativa?

Na sua essência, a IA generativa baseia-se em redes neuronais (NN) treinadas em conjuntos de dados maciços. Durante o treino, o modelo aprende uma distribuição probabilística dos dados. Quando lhe é dada uma sugestão ou entrada, utiliza esta distribuição aprendida para prever e gerar o elemento seguinte mais provável numa sequência, quer seja uma palavra, um pixel ou uma nota musical. Este processo é repetido para construir um conteúdo completo. Muitos modelos generativos modernos são construídos com base na arquitetura Transformer, que utiliza um mecanismo de atenção para ponderar a importância de diferentes partes dos dados de entrada, permitindo-lhe captar dependências complexas e de longo alcance e gerar resultados altamente coerentes. Estes modelos poderosos e pré-treinados são frequentemente designados por modelos de base.

IA generativa vs. IA discriminativa

A contrapartida da IA generativa é a IA discriminativa. A principal diferença reside nos seus objectivos:

  • Modelos generativos: Aprendem a distribuição dos dados para criar novas amostras de dados. O seu objetivo é responder à pergunta: "Qual é o aspeto dos dados?" Os exemplos incluem modelos para síntese de texto-imagem ou geração de texto.
  • Modelos Discriminativos: Aprendem a fronteira entre diferentes classes de dados para classificar ou prever um rótulo para uma determinada entrada. O seu objetivo é responder: "Qual é a diferença entre estes grupos?" A maior parte das tarefas de aprendizagem supervisionada, como a classificação de imagens e a deteção de objectos realizada por modelos como o Ultralytics YOLO, insere-se nesta categoria.

Enquanto os modelos discriminativos são excelentes para a categorização e a previsão, os modelos generativos são excelentes para a criação e o aumento.

Aplicações no mundo real

A IA generativa está a transformar numerosas indústrias com uma vasta gama de aplicações:

  1. Criação e ampliação de conteúdo: Modelos como o GPT-4 podem escrever artigos, e-mails e código, enquanto modelos de texto para imagem, como o DALL-E 3 e o Midjourney, criam visuais impressionantes a partir de descrições de texto simples. Isto está a revolucionar campos desde o marketing e entretenimento até ao desenvolvimento de software, com ferramentas como o GitHub Copilot a ajudar os programadores.
  2. Geração de dados sintéticos: A IA generativa pode criar dados artificiais realistas para treinar outros modelos de aprendizagem automática (ML). Por exemplo, na IA no sector automóvel, pode gerar cenários de condução raros para melhorar a robustez dos modelos de perceção em veículos autónomos. Do mesmo modo, nos cuidados de saúde, pode produzir imagens médicas sintéticas para treinar ferramentas de diagnóstico, ajudando a ultrapassar desafios relacionados com a privacidade dos dados e conjuntos de dados limitados. Esta técnica complementa o aumento tradicional de dados.

Tipos comuns de modelos generativos

Várias arquitecturas têm sido fundamentais para o avanço da IA generativa:

  • Redes Adversariais Generativas (GANs): Consistem em duas redes neurais concorrentes - um gerador e um discriminador - que trabalham em conjunto para criar resultados altamente realistas.
  • Modelos de difusão: Adicionar gradualmente ruído a uma imagem e depois aprender a inverter o processo para gerar imagens de alta fidelidade. Esta é a tecnologia subjacente a modelos como o Stable Diffusion.
  • Modelos de linguagem de grande porte (LLMs): Com base na arquitetura Transformer, estes modelos são treinados em grandes quantidades de dados de texto para compreender e gerar linguagem semelhante à humana. As principais organizações de investigação, como a Google AI e a Meta AI, estão constantemente a alargar os limites do que é possível.

Desafios e considerações éticas

O rápido crescimento da IA geradora introduz desafios significativos. O potencial de utilização indevida, como a criação de deepfakes para campanhas de desinformação ou a violação dos direitos de propriedade intelectual, é uma grande preocupação. Os modelos podem também perpetuar e amplificar os enviesamentos algorítmicos presentes nos seus dados de treino. A resolução destas questões exige um forte compromisso com a ética da IA e o desenvolvimento de quadros de governação sólidos. Além disso, o treino destes modelos de grandes dimensões é computacionalmente intensivo, o que suscita preocupações quanto ao seu impacto ambiental. Gerir eficazmente o ciclo de vida do modelo através de plataformas MLOps como o Ultralytics HUB pode ajudar a simplificar o desenvolvimento e a implementação.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência