Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Comprendere il rilevamento dei bordi nell'elaborazione delle immagini

Abirami Vina

5 minuti di lettura

25 agosto 2025

Edge detection nell'elaborazione delle immagini. Scopri Sobel, Canny e altri algoritmi di edge detection per rilevare accuratamente i bordi e ottenere un robusto riconoscimento dei bordi.

Come esseri umani, riconosciamo naturalmente i bordi degli oggetti, seguiamo le loro curve e notiamo le texture sulle loro superfici quando guardiamo un'immagine. Per un computer, tuttavia, la comprensione inizia a livello di singoli pixel.

Un pixel, l'unità più piccola di un'immagine digitale, memorizza il colore e la luminosità in un singolo punto. Tracciando le variazioni di questi valori dei pixel attraverso un'immagine, un computer può rilevare schemi che rivelano dettagli chiave.

In particolare, l'image processing utilizza i dati dei pixel per enfatizzare le caratteristiche essenziali e rimuovere le distrazioni. Una tecnica comune di elaborazione delle immagini è il rilevamento dei bordi, che identifica i punti in cui la luminosità o il colore cambiano bruscamente per delineare gli oggetti, contrassegnare i confini e aggiungere struttura.

Questo consente ai computer di separare le forme, misurare le dimensioni e interpretare come le parti di una scena si connettono. Il rilevamento dei bordi è spesso il primo passo nell'analisi avanzata delle immagini.

Fig. 1. Esempio che mostra l'immagine originale insieme agli output di diversi metodi di edge detection. (Fonte)

In questo articolo, daremo un'occhiata a cosa è l'edge detection, come funziona e le sue applicazioni nel mondo reale. Iniziamo!

Concetti di edge detection

L'edge detection si concentra sulla ricerca di punti in un'immagine in cui la luminosità o il colore cambiano notevolmente da un punto all'altro. Se il cambiamento è piccolo, l'area appare liscia. Se il cambiamento è netto, spesso segna il confine tra due regioni diverse.

Ecco alcuni dei motivi per cui si verificano queste variazioni di pixel:

  • Discontinuità normali della superficie: Quando due superfici si incontrano ad angolo, come l'angolo di un muro o il bordo di una scatola, questo brusco cambiamento di orientamento produce un confine chiaro nell'immagine.
  • Discontinuità di profondità: Appaiono dove gli oggetti si trovano a distanze diverse dalla telecamera, producendo una separazione visibile che aiuta il sistema a distinguerli.
  • Cambiamenti di colore o consistenza della superficie: Ciò si verifica quando un'area ha un colore o una consistenza diversa dall'area adiacente, creando una separazione visibile.
  • Variazioni di illuminazione: derivano da cambiamenti di illuminazione, tra cui ombre o luci sulle superfici, creando separazioni visibili anche quando le superfici stesse sono lisce o continue.
Fig. 2. Diversi tipi di discontinuità dei bordi nelle immagini. (Fonte)

Come funziona il riconoscimento edge detection

L'edge detection di solito inizia trasformando un'immagine a colori in un'immagine in scala di grigi, in modo che ogni punto mostri solo la luminosità. Questo rende più facile per l'algoritmo concentrarsi sulle differenze di luce e buio invece che sul colore.

Successivamente, filtri speciali possono scansionare l'immagine per trovare punti in cui la luminosità cambia improvvisamente. Questi filtri calcolano la rapidità con cui cambia la luminosità, chiamato gradiente. Un gradiente più alto è causato da una maggiore differenza tra i punti vicini, il che spesso segnala un bordo.

L'algoritmo continua quindi a perfezionare l'immagine, rimuovendo i piccoli dettagli e mantenendo solo le linee e le forme più importanti. Il risultato è un contorno chiaro e un'immagine di output che può essere utilizzata per ulteriori analisi.

Evoluzione del rilevamento dei bordi e dell'elaborazione delle immagini

Prima di approfondire i dettagli del rilevamento dei bordi, discutiamo di come si è sviluppato nel tempo.

L'elaborazione delle immagini è iniziata con metodi semplici basati su regole, come la soglia e il filtraggio, per pulire e migliorare le immagini. Nell'era analogica, questo significava lavorare con fotografie o pellicole utilizzando filtri ottici, lenti d'ingrandimento o trattamenti chimici per far risaltare i dettagli. 

Tecniche come la regolazione del contrasto, la riduzione del rumore, la regolazione dell'intensità dell'immagine e il rilevamento di base dei bordi hanno contribuito a rendere le immagini di input più chiare ed evidenziare forme e texture. Negli anni '60 e '70, il passaggio dall'elaborazione analogica a quella digitale ha aperto la strada all'analisi moderna in aree come l'astronomia, l'imaging medico e il monitoraggio satellitare.

Negli anni '80 e '90, computer più veloci hanno reso possibile affrontare compiti più complessi come l'estrazione di caratteristiche, il rilevamento di forme e il riconoscimento di oggetti di base. Algoritmi come l'operatore di Sobel e Canny hanno offerto un rilevamento dei bordi più preciso, mentre il riconoscimento di pattern ha trovato applicazioni in ogni settore, dall'automazione industriale alla lettura di testi stampati tramite il riconoscimento ottico dei caratteri.

Edge detection e computer vision nel 21° secolo

Oggi, i costanti progressi nella tecnologia hanno portato allo sviluppo della computer vision. La vision AI, o computer vision, è una branca dell'IA che si concentra sull'insegnamento alle macchine a interpretare e comprendere le informazioni visive. 

Mentre l'elaborazione tradizionale delle immagini, come la doppia sogliatura (che rende le immagini più chiare mantenendo i bordi forti e rimuovendo quelli deboli) e il rilevamento dei bordi, seguiva regole fisse e poteva gestire solo compiti specifici, la computer vision utilizza modelli guidati dai dati che possono imparare dagli esempi e adattarsi a nuove situazioni. 

Oggigiorno, i sistemi di imaging vanno ben oltre il semplice miglioramento delle immagini o il rilevamento dei bordi. Possono riconoscere oggetti, tracciare movimenti e comprendere il contesto di un'intera scena. 

Una delle tecniche chiave che rende possibile tutto questo è la convoluzione. Un'operazione di convoluzione è un processo in cui piccoli filtri (chiamati anche kernel) scansionano un'immagine per trovare pattern importanti come bordi, angoli e texture. Questi pattern diventano gli elementi costitutivi che i modelli di computer vision utilizzano per riconoscere e comprendere gli oggetti.

Ad esempio, i modelli di computer vision come Ultralytics YOLO11 utilizzano queste caratteristiche basate sulla convoluzione per eseguire compiti avanzati come la segmentazione delle istanze. Questo è strettamente correlato al rilevamento dei contorni perché la segmentazione delle istanze richiede di delineare accuratamente i confini di ogni oggetto in un'immagine. 

Mentre il rilevamento dei bordi si concentra sulla ricerca di cambiamenti di intensità nei pixel dei bordi per contrassegnare i bordi degli oggetti, la segmentazione delle istanze si basa su questa idea per rilevare i bordi, classificare e separare ogni oggetto nella propria regione.

Fig. 3. Uno sguardo all'utilizzo di YOLO11 e della segmentazione delle istanze. (Fonte)

Algoritmi e approcci di edge detection

Anche con la crescita della computer vision, l'elaborazione delle immagini è ancora una parte importante di molte applicazioni. Questo perché la computer vision spesso si basa su passaggi di pre-elaborazione di base delle immagini. 

Prima di rilevare oggetti o comprendere una scena, i sistemi di solito puliscono l'immagine, riducono il rumore e trovano i bordi per far risaltare i dettagli chiave. Questi passaggi rendono i modelli avanzati più accurati ed efficienti.

Successivamente, esploriamo alcuni degli algoritmi di elaborazione delle immagini più comuni utilizzati per rilevare i bordi e il loro funzionamento. 

Edge detection di Sobel

L'edge detection di Sobel è un metodo chiave utilizzato per trovare i contorni degli oggetti in un'immagine. Invece di analizzare ogni dettaglio contemporaneamente, si concentra sulle aree in cui la luminosità cambia bruscamente da un pixel al pixel vicino. 

Questi cambiamenti improvvisi di solito segnano il punto in cui un oggetto termina e un altro inizia, o dove un oggetto incontra lo sfondo. Isolando questi bordi, Sobel trasforma un'immagine complessa in un contorno più pulito, più facile da elaborare per altri sistemi per attività come il tracciamento del movimento, il rilevamento di forme o il riconoscimento di oggetti.

Puoi pensare al rilevamento dei bordi di Sobel come a un rilevatore di gradienti che misura come l'intensità cambia attraverso un'immagine. Nel suo nucleo, questo funziona attraverso un'operazione di convoluzione: facendo scorrere piccole matrici, chiamate kernel, attraverso l'immagine e calcolando somme ponderate dei valori dei pixel vicini. 

Questi kernel sono progettati per enfatizzare i cambiamenti di luminosità lungo le direzioni orizzontali e verticali. A differenza dei modelli di deep learning, in cui i kernel vengono appresi dai dati, Sobel utilizza kernel fissi per evidenziare in modo efficiente i bordi senza richiedere l'addestramento.

Ecco uno sguardo più da vicino al funzionamento del metodo di rilevamento dei bordi di Sobel:

  • Utilizzo di due filtri 3×3: Questo metodo utilizza due piccole griglie 3×3, chiamate filtri. Immaginatele come stencil che scorrono sull'immagine in direzione orizzontale (asse x) e verticale (asse y). Una griglia è progettata per trovare i bordi orizzontali e l'altra per i bordi verticali.

  • Calcolo del gradiente: Ogni filtro trova la velocità con cui cambia la luminosità e la direzione del gradiente. Un grande cambiamento indica un possibile bordo.

  • Combinazione dei risultati: I risultati orizzontali e verticali vengono combinati per determinare la forza e la direzione complessiva del bordo in ciascun pixel.

  • Rilevamento dei bordi: I pixel con un'elevata magnitudine del gradiente vengono contrassegnati come bordi forti.

  • Delimitazione dei contorni: Questi bordi aiutano a definire le forme degli oggetti e a separare le diverse regioni nell'immagine.
Fig. 4. Il rilevamento dei bordi di Sobel può evidenziare i contorni principali di un'immagine di input e produrre una edge map. (Fonte) 

Rilevamento dei bordi di Canny

Il rilevamento dei bordi di Canny è un altro metodo popolare per trovare i bordi in un'immagine. È noto per produrre contorni puliti e precisi. A differenza delle tecniche di rilevamento dei bordi di base, segue una serie di passaggi attentamente progettati per filtrare il rumore, affinare i confini e concentrarsi sui bordi più importanti. 

Ecco una rapida panoramica di come funziona un rilevatore di bordi Canny:

  • Uniformare l'immagine: L'immagine viene prima sfocata con un filtro gaussiano, una tecnica di smoothing che riduce il rumore e i piccoli dettagli che potrebbero essere scambiati per bordi.
  • Rilevamento delle variazioni di luminosità: L'algoritmo esegue quindi la scansione per individuare bruschi cambiamenti di luminosità, utilizzando calcoli di gradiente per misurare l'intensità e la direzione di tali cambiamenti.

  • Assottigliamento dei bordi: Vengono mantenuti solo i punti più forti lungo ogni linea rilevata, mentre i punti più deboli vengono rimossi, ottenendo bordi nitidi e puliti.

  • Classificazione dei bordi: Ogni pixel viene etichettato come forte, debole o non un bordo, in base ai valori di soglia della variazione di luminosità.

  • Pulizia finale: I bordi deboli collegati a quelli forti vengono mantenuti; tutti gli altri vengono scartati, lasciando solo contorni chiari e connessi.
Fig. 5. Immagine originale e relativa immagine di output dopo l'utilizzo del rilevatore di bordi Canny. (Fonte)

Grazie alla sua capacità di fornire risultati accurati filtrando il rumore, il rilevamento dei bordi di Canny è ampiamente utilizzato in aree in cui la precisione è importante. Ad esempio, viene utilizzato in settori come l'imaging medicale, la mappatura satellitare, la scansione di documenti e la visione robotica.

Rilevamento dei bordi basato sul gradiente vs. basato su Gaussiane

Finora, i due esempi di edge detection che abbiamo esaminato sono Sobel e Canny. Anche se entrambi mirano a trovare i bordi, affrontano il problema in modo diverso.

I metodi basati sul gradiente (come Sobel, Prewitt e Scharr) rilevano i bordi cercando cambiamenti bruschi nella luminosità, noti come gradiente. Scansionano l'immagine e contrassegnano i punti in cui questo cambiamento è più forte. Questi metodi sono semplici, veloci e funzionano bene quando le immagini sono nitide. Tuttavia, sono sensibili al rumore: piccole variazioni di luminosità possono essere scambiate per bordi.

I metodi basati su Gaussiane (come Canny o Laplaciano di Gaussiane) aggiungono un passaggio extra per gestire questo problema: sfocare prima l'immagine. Questo smoothing, spesso eseguito con un filtro gaussiano, riduce le piccole variazioni che potrebbero creare falsi bordi. Dopo lo smoothing, questi metodi cercano ancora bruschi cambiamenti di luminosità, ma i risultati sono più puliti e accurati per immagini rumorose o di bassa qualità.

Fig. 6. Rilevamento dei bordi basato sul gradiente rispetto a quello basato su Gaussian. Immagine dell'autore.

Applicazioni reali del rilevamento dei bordi

Con una migliore comprensione di come funziona il rilevamento dei contorni, esploriamo come viene applicato in situazioni reali.

Utilizzo del rilevamento dei bordi per identificare le crepe

L'ispezione di grandi strutture in cemento, come ponti ed edifici di grandi dimensioni, è spesso un compito impegnativo e pericoloso. Queste strutture possono estendersi su lunghe distanze o raggiungere altezze elevate, rendendo le ispezioni tradizionali lente, costose e rischiose. Queste ispezioni richiedono anche tipicamente impalcature, accesso con funi, misurazioni manuali ravvicinate o fotografia.

Un approccio interessante è stato esplorato nel 2019, quando i ricercatori hanno testato un metodo più sicuro e veloce utilizzando droni dotati di telecamere ad alta risoluzione per acquisire immagini di input dettagliate delle superfici in calcestruzzo. Queste immagini sono state poi elaborate con varie tecniche di edge detection per identificare automaticamente le crepe.

Lo studio ha dimostrato che questo metodo ha ridotto significativamente la necessità di accesso umano diretto ad aree pericolose e ha accelerato le ispezioni. Tuttavia, la sua accuratezza dipendeva ancora da fattori quali le condizioni di illuminazione, la chiarezza dell'immagine e il funzionamento stabile del drone. In alcuni casi, era ancora necessaria la revisione umana per eliminare i falsi positivi.

Applicazione del rilevamento dei bordi nell'imaging medicale

Le radiografie e le risonanze magnetiche spesso contengono disturbi visivi noti come rumore, che possono rendere più difficile la visualizzazione dei dettagli. Questo rappresenta una sfida per i medici quando cercano di individuare i bordi di un tumore, tracciare il contorno di un organo o monitorare cambiamenti sottili nel tempo.

Un recente studio di imaging medicale ha testato l'efficacia dei metodi comuni di rilevamento dei bordi, come Sobel, Canny, Prewitt e Laplacian, nella gestione di immagini rumorose. I ricercatori hanno aggiunto diversi tipi e livelli di rumore alle immagini e hanno verificato con quale accuratezza ogni metodo riusciva a delineare le caratteristiche importanti.

Canny di solito produceva i bordi più puliti, anche in presenza di forte rumore, ma non era il migliore in ogni caso. Alcuni metodi funzionavano meglio con determinati modelli di rumore, quindi non esiste una soluzione perfetta unica.

Fig. 7. Canny (d–f) fornisce bordi più nitidi rispetto a Sobel (g–i) all'aumentare del rumore. (Fonte)

Ciò evidenzia perché tecnologie come la computer vision sono così importanti. Combinando algoritmi avanzati e modelli di Vision AI, tali soluzioni possono andare oltre il rilevamento dei bordi di base per fornire risultati più accurati e affidabili anche in condizioni difficili.

Vantaggi dell'edge detection

Ecco alcuni dei vantaggi derivanti dall'utilizzo del rilevamento dei bordi e dell'elaborazione delle immagini: 

  • Migliore compressione dei dati: Il rilevamento dei bordi consente di rappresentare le immagini utilizzando solo le caratteristiche chiave, riducendo le dimensioni del file pur conservando le informazioni essenziali. Ciò rende lo storage e la trasmissione più efficienti.

  • Localizzazione degli oggetti più precisa: Identificando accuratamente i confini degli oggetti, il rilevamento dei bordi migliora la capacità dei sistemi di localizzare e tracciare gli oggetti, a vantaggio di applicazioni come la Visione AI nella robotica e nei veicoli autonomi.

  • Rilevamento di caratteristiche multiscala: Le tecniche di rilevamento dei bordi possono analizzare le immagini a diverse scale, catturando sia i piccoli dettagli che le forme più grandi. Questa flessibilità è utile in diverse attività, dall'analisi delle texture alla comprensione della scena.

Limitazioni dell'utilizzo dell'elaborazione delle immagini per il rilevamento dei bordi

Sebbene ci siano molti vantaggi nel rilevamento dei bordi nell'elaborazione delle immagini, presenta anche alcune sfide. Ecco alcune delle principali limitazioni da considerare:

  • Problemi con texture complesse: Nelle immagini con pattern intricati o ripetuti, il rilevamento dei bordi produce spesso molti bordi falsi o irrilevanti, il che complica ulteriori analisi e riduce l'affidabilità.

  • Sensibile all'illuminazione: Variazioni di luminosità, ombre e riflessi possono indurre i rilevatori di bordi a interpretare erroneamente i cambiamenti di illuminazione come confini degli oggetti, portando a risultati incoerenti.

  • Nessuna identificazione dell'oggetto: Mentre i bordi evidenziano dove gli oggetti iniziano e finiscono, non mostrano quali sono gli oggetti. È necessaria un'ulteriore elaborazione per assegnare un significato o delle etichette ai bordi rilevati.

Quando la computer vision può essere utilizzata per il rilevamento dei bordi

L'edge detection si ispira al modo in cui i nostri occhi e il nostro cervello lavorano insieme per dare un senso al mondo. Quando si tratta di visione umana, neuroni specializzati nella corteccia visiva sono altamente sensibili ai bordi, alle linee e ai confini. 

Questi indizi visivi ci aiutano a determinare rapidamente dove finisce un oggetto e ne inizia un altro. Questo è il motivo per cui anche un semplice disegno al tratto può essere immediatamente riconoscibile: il nostro cervello si affida molto ai bordi per identificare forme e oggetti.

La visione artificiale mira a imitare questa capacità, ma la porta un ulteriore passo avanti. Modelli come Ultralytics YOLO11 vanno oltre l'evidenziazione dei bordi di base e il miglioramento dell'immagine. Possono rilevare oggetti, delinearli con precisione e tracciare il movimento in tempo reale. Questo livello di comprensione più profondo li rende essenziali in scenari in cui il solo rilevamento dei bordi non è sufficiente.

Utilizzo di Ultralytics YOLO11 per rilevare i bordi in modo più accurato

Ecco alcune attività di computer vision chiave supportate da YOLO11 che si basano e vanno oltre il rilevamento dei bordi:

  • Rilevamento di oggetti: Identifica e localizza più oggetti in un'immagine o in un video disegnando riquadri di delimitazione attorno a ciascuno, fornendo una visione chiara di ciò che è presente e dove è posizionato ciascun oggetto.

  • Segmentazione delle istanze: Ciò comporta la suddivisione degli oggetti a livello di pixel, producendo contorni puliti e precisi anche quando gli oggetti si sovrappongono o hanno forme irregolari.

  • Stima della posa: L'obiettivo è determinare la posizione, l'orientamento o la postura di un oggetto o di una persona, il che aiuta a monitorare il movimento o a rilevare cambiamenti strutturali nel tempo.

  • Object tracking: Questo task segue un oggetto mentre si muove attraverso i fotogrammi video, garantendo un'identificazione coerente per un'osservazione accurata a lungo termine.

  • Classificazione delle immagini: Assegna etichette a oggetti o intere immagini in base alle loro caratteristiche visive, rendendo più facile organizzare e interpretare grandi set di dati

Rilevamento dei bordi nelle infrastrutture con la computer vision

Un buon esempio di computer vision che migliora un'applicazione che tradizionalmente si basava sul rilevamento dei bordi è il rilevamento di crepe nelle infrastrutture e nei beni industriali. I modelli di computer vision come YOLOv8 possono essere addestrati per identificare accuratamente le crepe su strade, ponti e condutture. La stessa tecnica può essere applicata anche nella manutenzione degli aeromobili, nelle ispezioni degli edifici e nel controllo qualità della produzione, contribuendo ad accelerare le ispezioni e migliorare la sicurezza.

Fig. 8. Un esempio di utilizzo di YOLO11 per la segmentazione delle crepe. (Fonte)

Punti chiave

L'edge detection ha fatto molta strada, dai semplici metodi iniziali alle tecniche avanzate in grado di individuare anche i confini più sottili in immagini complesse. Aiuta a far risaltare i dettagli importanti, evidenziare le aree chiave e preparare le immagini per un'analisi più approfondita, rendendola una parte fondamentale dell'elaborazione delle immagini.

Nella computer vision, il rilevamento dei contorni (edge detection) svolge un ruolo importante nella definizione delle forme, nella separazione degli oggetti e nell'estrazione di informazioni utili. Viene utilizzato in molti settori, come l'imaging medicale, le ispezioni industriali, la guida autonoma e la sicurezza, per fornire una comprensione visiva accurata e affidabile.

Unisciti alla nostra community ed esplora il nostro repository GitHub per scoprire di più sull'AI. Se stai cercando di avviare il tuo progetto di Vision AI, dai un'occhiata alle nostre opzioni di licenza. Scopri di più su applicazioni come l'AI nel settore sanitario e la Vision AI nel retail visitando le nostre pagine dedicate alle soluzioni.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti