Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Comprendere il ruolo dell'FPS nella computer vision

Abirami Vina

4 minuti di lettura

20 marzo 2025

Scopri perché l'FPS è importante nella computer vision e come influisce sul rilevamento di oggetti in tempo reale, sull'analisi video e sulle applicazioni basate sull'IA.

Guardare un replay al rallentatore del tuo momento sportivo preferito, dove ogni dettaglio è chiaro, è molto diverso dal guardare filmati di sorveglianza che di solito appaiono a scatti e difficili da seguire. Il dettaglio tecnico chiave dietro queste differenze è l'FPS, o Frames Per Second, che si riferisce al numero di fotogrammi mostrati al secondo in un video. Un FPS più alto si traduce in un movimento fluido e realistico, mentre un FPS più basso può portare a filmati a scatti e meno dettagliati.

Questo concetto ha un impatto diretto sulla computer vision, una branca dell'IA che consente alle macchine di interpretare e analizzare i dati visivi in modo simile a come fanno gli esseri umani. Nella computer vision, un FPS più alto significa che i sistemi possono acquisire più informazioni ogni secondo, migliorando l'accuratezza del rilevamento e del tracciamento degli oggetti in tempo reale.

In questo articolo, esploreremo gli aspetti tecnici dell'FPS e come è correlato alle applicazioni di computer vision. Iniziamo!

Cosa significa FPS nella computer vision?

Supponiamo che tu stia giocando a un gioco di corse: a 60 FPS, ogni curva risulta fluida e reattiva, ma a 20 FPS, i controlli sono in ritardo, rendendo più difficile evitare gli ostacoli. In parole semplici, puoi pensare all'FPS come al numero di immagini fisse che vengono mostrate ogni secondo. Più immagini al secondo rendono il movimento fluido e naturale, mentre meno immagini possono farlo apparire a scatti.

Proprio come nei giochi, l'FPS è una parte fondamentale delle applicazioni di computer vision. Un FPS più alto rende possibile tracciare gli oggetti utilizzando la Vision AI in modo fluido, mentre un FPS più basso può comportare la perdita di dettagli. 

Ad esempio, nell'analisi sportiva, le telecamere basate sull'IA necessitano di un FPS più alto per essere in grado di tracciare passaggi veloci, movimenti dei giocatori e traiettorie della palla. Un FPS più basso potrebbe portare a perdere un importante contatto piede-palla o un rapido cambio di direzione, con un impatto sull'accuratezza dell'analisi. 

Allo stesso modo, nel monitoraggio del traffico, i sistemi si affidano a un FPS elevato per rilevare veicoli in eccesso di velocità e cambi di corsia in tempo reale. La scelta dell'FPS giusto dipende dai requisiti specifici di ogni applicazione di computer vision, bilanciando prestazioni, efficienza e chiarezza visiva.

__wf_reserved_inherit
Fig. 1. Confronto tra diverse frequenze di fotogrammi.

Aspetti tecnici dell'FPS nella computer vision

Ora che abbiamo discusso di cosa è l'FPS e di come viene utilizzato nella computer vision, approfondiamo i suoi aspetti tecnici, a partire da come calcolare l'FPS di un video. 

Dividere il numero totale di fotogrammi per la durata in secondi fornisce l'FPS di un video. Ad esempio, se un video ha 96 fotogrammi su 4 secondi, si calcola a 24 FPS, il che significa che vengono visualizzate 24 immagini ogni secondo, mentre 32 fotogrammi su 4 secondi si traducono in 8 FPS. Librerie Python come OpenCV possono essere utilizzate per estrarre i metadati del video, contare i fotogrammi e calcolare automaticamente l'FPS, semplificando il processo di analisi video.

__wf_reserved_inherit
Fig. 2. 24 FPS vs 8 FPS vs 4FPS.

Fattori che influenzano l'FPS di un video

Tuttavia, calcolare l'FPS da solo non è sufficiente per prendere decisioni tecniche quando si sviluppano soluzioni di computer vision. È anche importante considerare i vari fattori che possono influenzare la frequenza dei fotogrammi effettiva, come le capacità hardware, le ottimizzazioni del software e le condizioni ambientali. 

Ecco un'analisi più approfondita di questi fattori:

  • Capacità hardware: La qualità del sensore della telecamera e la potenza di elaborazione del dispositivo possono determinare il numero di frame acquisiti al secondo. Un hardware migliore di solito significa supporto per un FPS più elevato e video più fluidi.
  • Ottimizzazioni software: Un software efficiente di codifica ed elaborazione video aiuta a estrarre e analizzare i frame rapidamente. Ciò garantisce che il video venga elaborato senza ritardi inutili.
  • Condizioni ambientali: L'illuminazione e il movimento in una scena influiscono sulla chiarezza con cui vengono acquisiti i frame. Una buona illuminazione e un movimento moderato possono migliorare l'FPS, mentre condizioni sfavorevoli potrebbero richiedere un FPS più elevato per mantenere la chiarezza.
  • Esigenze di archiviazione: Un FPS più elevato acquisisce più frame al secondo, il che si traduce in file di dimensioni maggiori. Ciò aumenta i requisiti di archiviazione e richiede un'elaborazione dei dati più rapida per garantire una riproduzione fluida.

Esplorare l'FPS nelle applicazioni di computer vision

Modelli di IA come Ultralytics YOLO11 che supportano attività di computer vision in tempo reale possono essere utilizzati per analizzare video con frame rate elevati. Questa capacità in tempo reale è fondamentale per applicazioni come la guida autonoma, la sorveglianza e la robotica, dove anche piccoli ritardi possono portare a errori significativi. 

Analizziamo alcune applicazioni di Vision AI nel mondo reale in cui un FPS elevato è essenziale per la precisione e le prestazioni. 

Un frame rate più elevato per soluzioni di sorveglianza e sicurezza

I sistemi di sorveglianza che monitorano aree ad alto traffico come le autostrade utilizzano un FPS elevato per acquisire dettagli minimi, garantendo che i veicoli in rapido movimento siano chiaramente documentati. Questa chiarezza è essenziale per i sistemi di riconoscimento automatico delle targhe (ANPR), che si basano su filmati di buona qualità per identificare accuratamente i veicoli.

In tali sistemi, modelli come YOLO11 possono essere utilizzati per rilevare le targhe direttamente dal flusso video. Una volta rilevata una targa, viene utilizzato il riconoscimento ottico dei caratteri (OCR), che converte le immagini del testo in caratteri leggibili dalla macchina, per leggere i dettagli della targa. Questo processo consente un'identificazione rapida e accurata del veicolo, migliorando l'applicazione del codice della strada e la sicurezza generale.

__wf_reserved_inherit
Fig. 3. Utilizzo di YOLO11 per rilevare le targhe.

Comprendere i requisiti di FPS per i sistemi autonomi

Consideriamo un'auto a guida autonoma a un segnale di stop, che analizza attentamente l'ambiente circostante per decidere se può procedere in sicurezza. Questa auto deve prendere decisioni quasi istantanee, il che richiede l'acquisizione e l'elaborazione di dati visivi in tempo reale. 

Se il veicolo autonomo è dotato di telecamere in grado di acquisire filmati a un FPS più elevato, riceve un flusso di immagini più continuo e dettagliato. Questo input visivo migliorato consente all'auto di rilevare rapidamente ostacoli, pedoni e altri veicoli. Rende possibile per il veicolo reagire prontamente a qualsiasi cambiamento nel suo ambiente.

Se le telecamere elaborassero le immagini a un FPS inferiore, il veicolo potrebbe ricevere una visualizzazione più discontinua e meno dettagliata. Ciò potrebbe ritardare il suo tempo di risposta, aumentando il rischio di perdere informazioni critiche e potenzialmente compromettendo la sicurezza.

La connessione tra FPS e analisi sportiva

Catturare ogni movimento con precisione è fondamentale nello sport, dove decisioni frazioni di secondo possono fare la differenza tra vincere e perdere. La tecnologia che supporta un FPS più elevato ci consente di registrare ogni minimo dettaglio in movimento e allenatori, analisti e atleti possono rivedere le giocate al rallentatore senza perdere un colpo. Aiuta anche gli arbitri a prendere decisioni più accurate in sport come tennis, calcio e cricket fornendo una visione chiara, frame per frame, dell'azione.

Ad esempio, un interessante studio sulla pallavolo ha analizzato come l'utilizzo di un FPS più elevato migliori la valutazione delle prestazioni. L'aumento dell'FPS da 30 a 240 ha migliorato significativamente la chiarezza del movimento e il tracciamento degli oggetti. Anche la precisione dell'analisi dello spike è migliorata, aiutando gli allenatori a comprendere in modo più preciso il posizionamento della mano, i punti di contatto con la palla e la meccanica del salto. Inoltre, lo studio ha rilevato che un FPS più elevato riduce la sfocatura del movimento, rendendo più facile l'analisi di servizi e reazioni difensive. 

__wf_reserved_inherit
Fig. 4. Confronto tra FPS basso e alto rispetto alla chiarezza del movimento.

Quando l'utilizzo di un FPS basso è efficace nell'analisi video

Non tutte le applicazioni di computer vision richiedono la registrazione di filmati a un FPS più elevato. In molti casi, un FPS inferiore è sufficiente per ottenere risultati accurati, a seconda dell'attività. Ecco alcune aree chiave in cui è preferibile un FPS inferiore:

  • Post-elaborazione e analisi offline: Per applicazioni come il monitoraggio del traffico e l'analisi della folla, non è sempre necessario acquisire ogni frame a un FPS elevato. Un FPS inferiore può comunque fornire dati sufficienti per analizzare i modelli di movimento, come il flusso dei veicoli, la densità dei pedoni e le tendenze della congestione. Riducendo i frame ridondanti, questo approccio riduce al minimo i requisiti di archiviazione e il carico computazionale, mantenendo al contempo un'analisi accurata.
  • Monitoraggio ambientale time-lapse: Per tracciare cambiamenti lenti come la crescita delle piante, i progressi della costruzione o il movimento dei ghiacciai, è sufficiente acquisire un frame ogni pochi minuti o una volta al giorno, documentando efficacemente le trasformazioni a lungo termine e risparmiando spazio di archiviazione.
  • Ambienti con risorse limitate: Nel monitoraggio della fauna selvatica e nella sicurezza remota, un FPS inferiore aiuta a preservare la durata della batteria e lo spazio di archiviazione. Le telecamere attivate dal movimento che operano a 5–10 FPS possono catturare eventi essenziali per periodi prolungati, rendendole ideali per installazioni fuori rete.

Scegliere l'FPS giusto per applicazioni di deep learning

La selezione dell'FPS ideale richiede un equilibrio tra prestazioni e limitazioni del sistema. Ecco alcune considerazioni da tenere a mente quando si ottimizza l'FPS per applicazioni di deep learning:

  • Bilanciamento tra prestazioni e risorse: Un FPS più elevato migliora la reattività, ma aumenta anche il consumo energetico e le richieste di elaborazione. La regolazione dinamica dell'FPS, l'utilizzo dell'interpolazione dei frame e l'ottimizzazione dell'hardware possono aiutare a mantenere prestazioni fluide senza sovraccaricare il sistema.
  • Esigenze specifiche dell'applicazione: Applicazioni diverse hanno requisiti di FPS diversi. I dispositivi alimentati a batteria dovrebbero utilizzare un FPS inferiore per risparmiare energia, mentre i sistemi in tempo reale come i droni e i veicoli autonomi necessitano di un FPS più elevato per risposte rapide e accurate.
  • Test e ottimizzazione: Le impostazioni FPS dovrebbero idealmente essere testate in diverse condizioni di illuminazione e movimento. La valutazione della latenza e il confronto dei livelli di FPS fianco a fianco aiutano a determinare il miglior equilibrio tra reattività, qualità visiva ed efficienza delle risorse.

Innovazioni future e ottimizzazione dell'FPS per modelli di IA

I progressi nell'IA e nell'ottimizzazione dell'hardware stanno rendendo possibili frame rate più elevati, anche in ambienti con risorse limitate. Ad esempio, settori come il cinema, lo sport e la robotica possono beneficiare di una gestione più intelligente del frame rate, in cui i sistemi regolano dinamicamente l'FPS in base alla complessità del movimento e alla potenza di elaborazione. L'interpolazione dei frame guidata dall'IA migliora anche la fluidità del video generando frame aggiuntivi in tempo reale.

Nel frattempo, una recente svolta di NVIDIA sta spingendo ancora più in là le prestazioni dell'FPS. DLSS 4 (Deep Learning Super Sampling) introduce la generazione multi-frame, che utilizza l'IA per prevedere e creare frame extra. Questo aumenta i frame rate fino a 8 volte, riducendo al contempo il carico di lavoro sul sistema.

Lasciando che sia l'IA a gestire parte del rendering, DLSS 4 rende le immagini più fluide senza affaticare l'hardware, migliorando sia le prestazioni che l'efficienza.

Punti chiave

L'FPS è più di una semplice misura di fluidità visiva; guida il processo decisionale in tempo reale nell'IA e nella computer vision. Ogni frame in un video cattura dati critici, consentendo alle macchine di tracciare oggetti, analizzare il movimento e rispondere ad ambienti dinamici. Che si tratti di auto a guida autonoma che evitano ostacoli o di sistemi di sorveglianza che rilevano istantaneamente le minacce, l'FPS giusto garantisce accuratezza ed efficienza.

Il futuro dell'FPS non riguarda solo l'aumento dei frame rate, ma anche la loro ottimizzazione intelligente. Questa evoluzione renderà i sistemi di computer vision più veloci, innovativi ed efficienti in termini di risorse in vari settori.

Vuoi saperne di più sull'IA? Esplora il nostro repository GitHub e unisciti alla nostra community. Sei pronto per iniziare i tuoi progetti di computer vision? Dai un'occhiata alle nostre opzioni di licenza. Scopri come la computer vision nel settore sanitario sta migliorando l'efficienza ed esplora l'impatto dell'IA nella produzione visitando le nostre pagine delle soluzioni!

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti