Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

IA generativa

Scopri come l'IA generativa crea contenuti originali come testo, immagini e audio, trasformando i settori con applicazioni innovative.

L'IA generativa è una categoria di sistemi di intelligenza artificiale (IA) in grado di creare contenuti nuovi e originali, tra cui testo, immagini, audio e video. A differenza dell'IA tradizionale che analizza o agisce su dati esistenti, i modelli generativi apprendono i modelli e le strutture sottostanti da un vasto corpus di dati di addestramento per produrre output nuovi che imitano le caratteristiche dei dati su cui sono stati addestrati. Questa tecnologia è alimentata da complessi modelli di deep learning, come i modelli linguistici di grandi dimensioni (LLM), che sono diventati sempre più accessibili e potenti.

Come funziona l'AI generativa?

Nel suo nucleo, l'IA generativa si basa su reti neurali (NN) addestrate su enormi set di dati. Durante l'addestramento, il modello apprende una distribuzione probabilistica dei dati. Quando viene fornito un prompt o un input, utilizza questa distribuzione appresa per prevedere e generare l'elemento successivo più probabile in una sequenza, che si tratti di una parola, un pixel o una nota musicale. Questo processo viene ripetuto per costruire un pezzo di contenuto completo. Molti modelli generativi moderni sono costruiti sull'architettura Transformer, che utilizza un meccanismo di attenzione per ponderare l'importanza di diverse parti dei dati di input, consentendogli di catturare dipendenze complesse e a lungo raggio e generare output altamente coerenti. Questi potenti modelli pre-addestrati sono spesso indicati come modelli di fondazione.

IA generativa contro IA discriminativa

La controparte dell'AI generativa è l'AI discriminativa. La differenza fondamentale risiede nei loro obiettivi:

  • Modelli generativi: Apprendono la distribuzione dei dati per creare nuovi campioni di dati. Il loro obiettivo è rispondere alla domanda: "Che aspetto hanno i dati?" Gli esempi includono modelli per la sintesi text-to-image o la generazione di testo.
  • Modelli discriminativi: Apprendono il confine tra diverse classi di dati per classificare o prevedere un'etichetta per un dato input. Il loro obiettivo è rispondere alla domanda: "Qual è la differenza tra questi gruppi?" La maggior parte delle attività nell'apprendimento supervisionato, come la classificazione delle immagini e il rilevamento di oggetti eseguite da modelli come Ultralytics YOLO, rientrano in questa categoria.

Mentre i modelli discriminativi sono eccellenti per la categorizzazione e la previsione, i modelli generativi eccellono nella creazione e nell'aumento.

Applicazioni nel mondo reale

L'IA generativa sta trasformando numerosi settori con una vasta gamma di applicazioni:

  1. Creazione e aumento dei contenuti: Modelli come GPT-4 possono scrivere articoli, e-mail e codice, mentre i modelli text-to-image come DALL-E 3 e Midjourney creano immagini straordinarie da semplici descrizioni testuali. Questo sta rivoluzionando settori che vanno dal marketing e dall'intrattenimento allo sviluppo software, con strumenti come GitHub Copilot che assistono gli sviluppatori.
  2. Generazione di Dati Sintetici: L'AI generativa può creare dati artificiali realistici per addestrare altri modelli di machine learning (ML). Ad esempio, nell'AI nel settore automobilistico, può generare scenari di guida rari per migliorare la robustezza dei modelli di percezione nei veicoli autonomi. Allo stesso modo, nel settore sanitario, può produrre immagini mediche sintetiche per l'addestramento di strumenti diagnostici, contribuendo a superare le sfide relative alla privacy dei dati e ai set di dati limitati. Questa tecnica integra l'aumento dei dati tradizionale.

Tipi comuni di modelli generativi

Diverse architetture sono state fondamentali per il progresso dell'AI generativa:

  • Generative Adversarial Networks (GANs): Sono costituite da due reti neurali concorrenti, un generatore e un discriminatore, che lavorano insieme per creare output altamente realistici.
  • Modelli di Diffusione: Aggiungono gradualmente rumore a un'immagine e quindi imparano a invertire il processo per generare immagini ad alta fedeltà. Questa è la tecnologia alla base di modelli come Stable Diffusion.
  • Modelli linguistici di grandi dimensioni (LLM): Basati sull'architettura Transformer, questi modelli sono addestrati su grandi quantità di dati di testo per comprendere e generare un linguaggio simile a quello umano. Organizzazioni di ricerca leader come Google AI e Meta AI stanno costantemente spingendo i confini di ciò che è possibile.

Sfide e considerazioni etiche

La rapida ascesa dell'IA generativa introduce sfide significative. Il potenziale di uso improprio, come la creazione di deepfake per campagne di disinformazione o la violazione dei diritti di proprietà intellettuale, è una delle principali preoccupazioni. I modelli possono anche perpetuare e amplificare i bias algoritmici presenti nei loro dati di training. Affrontare questi problemi richiede un forte impegno per l'etica dell'IA e lo sviluppo di solidi framework di governance. Inoltre, l'addestramento di questi modelli di grandi dimensioni richiede un'elevata intensità di calcolo, sollevando preoccupazioni sul loro impatto ambientale. La gestione efficiente del ciclo di vita del modello attraverso piattaforme MLOps come Ultralytics HUB può aiutare a semplificare lo sviluppo e il deployment.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti