Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

L'AI comportamentale sta rendendo la computer vision più incisiva

Abirami Vina

4 minuti di lettura

6 gennaio 2025

Unisciti a noi per rivedere il keynote di David Scott allo YOLO Vision 2024 sull'analisi del comportamento guidata dall'AI e le sue applicazioni nel mondo reale in settori come l'allevamento di animali.

Per molti anni, le innovazioni nella computer vision si sono concentrate su attività come il rilevamento di oggetti - identificare oggetti come un cane o un'auto in immagini e video. Questi approcci hanno abilitato applicazioni in aree come veicoli autonomi, produzione e assistenza sanitaria. 

Tuttavia, questi compiti spesso si concentrano solo sull'identificazione di cosa sia un oggetto. E se i sistemi di Vision AI potessero fare un ulteriore passo avanti? Ad esempio, invece di limitarsi a rilevare un cane, diciamo che potrebbe capire che il cane sta inseguendo una palla o che un'auto sta frenando improvvisamente perché un pedone sta attraversando la strada. Questo passaggio dal riconoscimento di base alla comprensione contestuale rappresenta un importante cambiamento verso un'IA comportamentale più intelligente e consapevole del contesto.

A YOLO Vision 2024 (YV24), l'evento ibrido annuale di Ultralytics che celebra i progressi nella Vision AI, il concetto di analisi del comportamento guidata dall'IA è stato al centro della scena durante un interessante intervento di David Scott, CEO di The Main Branch.

Nel suo intervento, David ha esplorato la transizione dalle attività di computer vision di base al behavioral tracking. Con oltre 25 anni di esperienza nella creazione di applicazioni tecnologiche all'avanguardia, ha mostrato l'impatto di questo salto. Ha sottolineato come la decodifica di modelli e comportamenti stia rimodellando settori come l'agricoltura e il benessere degli animali.

In questo articolo, esamineremo i punti salienti del discorso di David ed esploreremo come il behavioral tracking rende l'IA più pratica. 

Comprendere le sfide dell'adozione dell'IA

David Scott ha iniziato il suo keynote con un audace controllo della realtà e ha detto: "Un mio collega dice spesso: 'La scienza non vende', il che offende molti di noi qui perché ci piace molto la scienza. L'AI è davvero interessante: perché le persone non dovrebbero semplicemente comprarla? Ma la realtà è che le persone non vogliono comprarla solo perché pensiamo che sia interessante; hanno bisogno di una ragione per comprarla."

Ha continuato spiegando che nella sua azienda, The Main Branch, l'attenzione è sempre rivolta alla risoluzione di problemi reali con l'IA, non solo a mostrare le sue capacità. Molti clienti vengono a parlare di come possono usare l'IA in generale, ma lui lo vede come un approccio arretrato: è come avere una soluzione senza un problema. Invece, lavorano con clienti che portano sfide specifiche in modo da poter creare soluzioni di IA che facciano davvero la differenza.

__wf_reserved_inherit
Fig. 1. David Scott sul palco a YV24.

David ha anche condiviso che il loro lavoro spesso va oltre il semplice riconoscimento di oggetti in una scena. Individuare ciò che è presente è solo il primo passo. Il vero valore deriva dal capire cosa fare con tali informazioni e renderle utili all'interno della catena del valore più ampia. 

Tecnologia di tracciamento comportamentale: la chiave per un'IA fruibile

Un passo fondamentale per rendere l'AI veramente utile è andare oltre le attività di computer vision di base, come il rilevamento di oggetti, e utilizzare queste informazioni per il tracciamento comportamentale. David ha sottolineato che l'AI comportamentale si concentra sulla comprensione delle azioni e dei modelli, non solo sull'identificazione degli oggetti. Questo rende l'AI in grado di riconoscere eventi significativi e fornire informazioni utili.

Ha fatto l'esempio di un animale che si rotola sul pavimento, il che potrebbe indicare una malattia. Mentre le persone non possono sorvegliare un animale 24 ore su 24, i sistemi di sorveglianza basati sull'IA con capacità di tracciamento del comportamento possono farlo. Tali soluzioni possono monitorare continuamente gli oggetti, rilevare comportamenti specifici, inviare un avviso e consentire un'azione tempestiva. Questo trasforma i dati grezzi in qualcosa di pratico e prezioso.

David ha anche dimostrato che questo approccio rende l'AI non solo interessante, ma anche veramente di impatto. Affrontando problemi reali, come il monitoraggio dei comportamenti e l'agire su di essi, il tracciamento comportamentale può diventare una parte fondamentale di soluzioni di AI efficaci in vari settori.

Dare vita all'IA comportamentale

David Scott ha quindi illustrato come Ultralytics YOLOv8, un modello di computer vision, sia stata una svolta per i progetti di tracciamento comportamentale del suo team. Ha fornito loro una solida base per rilevare, classificare e tracciare oggetti. Il suo team ha anche fatto un ulteriore passo avanti e ha addestrato in modo personalizzato YOLOv8 per concentrarsi sul monitoraggio dei comportamenti nel tempo, rendendolo più pratico e utile per situazioni del mondo reale.

È interessante notare che, con il rilascio di Ultralytics YOLO11, soluzioni come quelle create da The Main Branch possono diventare ancora più affidabili e precise. Questo modello più recente offre funzionalità come una precisione migliorata e un'elaborazione più rapida che ne migliorano la capacità di tracciare i comportamenti. Ne discuteremo più in dettaglio dopo aver compreso meglio le applicazioni per cui l'IA comportamentale può essere utilizzata.

Successivamente, esploriamo le soluzioni di cui ha parlato David e come la tecnologia di tracciamento comportamentale viene utilizzata in applicazioni reali per risolvere le sfide quotidiane e avere un impatto significativo.

HerdSense con analisi del comportamento basata sull'IA

Innanzitutto, David ha condiviso un'entusiasmante sfida affrontata con un progetto chiamato HerdSense, che prevedeva il monitoraggio della salute di migliaia di mucche in un enorme allevamento. L'obiettivo era tracciare il comportamento delle singole mucche per identificare potenziali problemi di salute. Ciò significava tenere sotto controllo decine di migliaia di animali contemporaneamente e non è stato un compito semplice.

__wf_reserved_inherit
Fig. 2. HerdSense si è concentrata sul monitoraggio e l'identificazione delle mucche utilizzando l'AI comportamentale.

Per iniziare a risolvere il problema dell'identificazione di ogni mucca e del tracciamento dei suoi comportamenti, il team di David ha condotto un workshop di due giorni per delineare ogni possibile comportamento da monitorare. Hanno identificato oltre 200 comportamenti in totale.

Ognuno dei 200 comportamenti dipendeva dalla capacità di riconoscere accuratamente le singole mucche, poiché tutti i dati dovevano essere collegati a specifici animali. Una delle maggiori preoccupazioni era il tracciamento delle mucche quando si raggruppavano in assembramenti, il che rendeva difficile vedere i singoli animali. 

Il team di David ha sviluppato un sistema di computer vision per garantire che ogni mucca fosse identificata in modo coerente, anche in situazioni difficili. Sono stati in grado di confermare che alla stessa mucca sarebbe sempre stato assegnato lo stesso ID, anche se scompariva dalla vista, si mescolava con le altre o riappariva in seguito.

Monitoraggio della salute dei cavalli tramite computer vision

Passando oltre, David ha presentato un altro progetto affascinante in cui hanno applicato tecniche simili di tracciamento del comportamento per monitorare i cavalli. In questo progetto, il team di David non ha avuto bisogno di tracciare gli ID dei singoli cavalli così da vicino come avevano fatto con le mucche. Invece, si sono concentrati su comportamenti specifici e hanno monitorato dettagli come le abitudini alimentari e i livelli di attività generali per individuare precocemente eventuali problemi di salute. L'identificazione di piccoli cambiamenti nel comportamento potrebbe portare a interventi più rapidi per fornire una migliore assistenza e prevenire problemi prima che diventino gravi.

__wf_reserved_inherit
Fig 3. Monitoraggio dei cavalli con l'aiuto dell'AI comportamentale.

Perché l'AI comportamentale non è così semplice come sembra

David ha anche discusso la complessità del tracciamento comportamentale attraverso un esempio interessante. Durante la ricerca di modi per migliorare l'analisi comportamentale, il suo team si è imbattuto in una società che affermava di rilevare il taccheggio analizzando pose specifiche, come qualcuno che tiene la mano in tasca. All'inizio, questa sembrava un'idea intelligente: certi movimenti potrebbero suggerire un comportamento sospetto, giusto?

__wf_reserved_inherit
Fig. 4. Comprendere le sfide della tecnologia di tracciamento comportamentale.

Tuttavia, approfondendo, David si è reso conto dei limiti di questo metodo. Una singola posa, come una mano in tasca, non significa necessariamente che qualcuno stia rubando. Potrebbe semplicemente indicare che è rilassato, che sta pensando o che ha freddo. Il problema di concentrarsi su pose isolate è che si ignora il contesto più ampio. Il comportamento non è solo una singola azione, ma uno schema di azioni nel tempo, modellato dal contesto e dall'intento.

David ha sottolineato che il vero tracciamento comportamentale è molto più complesso e richiede un approccio olistico. Si tratta di analizzare sequenze di azioni e capire cosa significano nel quadro più ampio. Sebbene l'industria dell'AI stia facendo progressi, ha osservato che c'è ancora lavoro da fare per far avanzare il tracciamento comportamentale al fine di fornire informazioni significative e accurate.

Creazione di modelli di vision AI più intelligenti che comprendano le azioni

Successivamente, David ha portato il pubblico dietro le quinte per mostrare loro come il suo team ha costruito una soluzione di computer vision per monitorare la salute delle mucche con l'aiuto di YOLOv8 e delle sue capacità di stima della posa.

Hanno iniziato creando un dataset personalizzato per la stima della posa di una mucca, aumentando il numero standard di punti chiave da 17 a 145 per migliorare la capacità del modello di analizzare il movimento. Quindi, il modello è stato addestrato su un dataset massiccio di oltre 2 milioni di immagini e 110 milioni di esempi comportamentali. 

Utilizzando un'infrastruttura hardware avanzata, il team di David è stato in grado di addestrare il modello in soli due giorni invece delle settimane che ci sarebbero volute con hardware convenzionale. Il modello addestrato è stato quindi integrato con un tracker di comportamento personalizzato che analizzava più fotogrammi video contemporaneamente per rilevare schemi nelle azioni delle mucche.

Il risultato è stato una soluzione basata sulla vision AI in grado di rilevare e tracciare otto diversi comportamenti delle mucche, come mangiare, bere e sdraiarsi, per individuare piccoli cambiamenti comportamentali che potrebbero segnalare problemi di salute. Ciò consente agli agricoltori di agire rapidamente e migliora la gestione della mandria.

Il futuro dell'AI comportamentale

David ha concluso il suo intervento condividendo un'importante lezione con il pubblico: "Se non date all'AI la possibilità di fallire, vi state preparando al fallimento perché, alla fine, è statistica". Ha sottolineato che l'AI, nonostante i suoi punti di forza, non è impeccabile. È uno strumento che impara dai modelli e ci saranno sempre momenti in cui non farà le cose per bene. Invece di temere questi errori, la chiave è costruire sistemi che possano gestirli e continuare a migliorare nel tempo.

Questo vale anche per i modelli di computer vision stessi. Ad esempio, Ultralytics YOLO11, l'ultima versione dei modelli Ultralytics YOLO, è stata realizzata tenendo presente la necessità di portare le cose a un livello superiore rispetto a YOLOv8.

 

__wf_reserved_inherit
Fig 5. Task di computer vision supportati da YOLO11.

In particolare, YOLO11 offre prestazioni superiori, specialmente per quanto riguarda le applicazioni in tempo reale dove la precisione è fondamentale, come l'agricoltura e la sanità. Grazie alle sue funzionalità avanzate, YOLO11 sta ridefinendo il modo in cui le industrie utilizzano l'IA, fornendo insight innovativi in tempo reale e aiutandole ad affrontare le sfide in modo più efficace.

Punti chiave

Il keynote di David allo YV24 è stato un promemoria del fatto che l'AI è più di una semplice innovazione interessante: è un potente strumento per risolvere problemi reali e migliorare il modo in cui viviamo e lavoriamo. Concentrandosi sul comportamento, l'AI sta già avendo un impatto in aree come il tracciamento della salute degli animali e il riconoscimento di modelli significativi nelle azioni quotidiane. 

Il potenziale dell'IA comportamentale è entusiasmante e siamo solo all'inizio. Trasformando i dati grezzi in informazioni utili, l'IA comportamentale passa dal monitoraggio passivo alla risoluzione attiva dei problemi. Con il suo ulteriore sviluppo, l'IA comportamentale è destinata a guidare decisioni più intelligenti, semplificare i processi e apportare miglioramenti significativi alle nostre vite.

Rimani in contatto con la nostra community per saperne di più sull'AI e le sue applicazioni nel mondo reale. Visita il nostro repository GitHub per scoprire le innovazioni in aree come l'AI in agricoltura e la computer vision nella produzione.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti