Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Affrontare l'IA responsabile con Ultralytics YOLOv8

Abirami Vina

4 minuti di lettura

5 settembre 2024

Impara a sviluppare soluzioni di AI responsabili con Ultralytics YOLOv8 seguendo le migliori pratiche etiche e di sicurezza e dando priorità a innovazioni di AI eque e conformi.

Il futuro dell'IA è nelle mani di sviluppatori, appassionati di tecnologia, leader aziendali e altri stakeholder che utilizzano strumenti e modelli come Ultralytics YOLOv8 per promuovere l'innovazione. Tuttavia, la creazione di soluzioni di IA di grande impatto non riguarda solo l'utilizzo di tecnologie avanzate, ma anche il farlo in modo responsabile. 

L'IA responsabile è stata un argomento di conversazione popolare nella comunità dell'IA ultimamente, con sempre più persone che parlano della sua importanza e condividono i loro pensieri. Dalle discussioni online agli eventi del settore, c'è una crescente attenzione su come possiamo rendere l'IA non solo potente ma anche etica. Un tema comune in queste conversazioni è l'enfasi sull'assicurarsi che tutti coloro che contribuiscono a un progetto di IA mantengano una mentalità focalizzata sull'IA responsabile in ogni fase. 

In questo articolo, inizieremo esplorando alcuni eventi e discussioni recenti relativi all'IA responsabile. Quindi, esamineremo più da vicino le sfide etiche e di sicurezza uniche dello sviluppo di progetti di computer vision e come assicurarci che il nostro lavoro sia sia innovativo che etico. Abbracciando i principi dell'IA responsabile, possiamo creare un'IA che avvantaggi veramente tutti!

IA responsabile nel 2024

Negli ultimi anni, si è notato un notevole impulso verso una maggiore etica nell'IA. Nel 2019, solo il 5% delle organizzazioni aveva stabilito linee guida etiche per l'IA, ma entro il 2020, questo numero è salito al 45%. Di conseguenza, stiamo iniziando a vedere più notizie relative alle sfide e ai successi di questo cambiamento etico. In particolare, c'è stato molto interesse per l'IA generativa e su come utilizzarla in modo responsabile.

Nel primo trimestre del 2024, il chatbot AI di Google, Gemini, che può generare immagini basate su prompt di testo, è stato ampiamente discusso. In particolare, Gemini è stato utilizzato per creare immagini che ritraevano varie figure storiche, come i soldati tedeschi della seconda guerra mondiale, come persone di colore. Il chatbot AI è stato progettato per diversificare la rappresentazione delle persone nelle sue immagini generate per essere intenzionalmente inclusivo. Tuttavia, occasionalmente, il sistema ha interpretato male alcuni contesti, risultando in immagini che sono state considerate inaccurate e inappropriate.

__wf_reserved_inherit
Fig.1 Un'immagine generata da Gemini.

Il responsabile della ricerca di Google, Prabhakar Raghavan, ha spiegato in un post sul blog che l'AI è diventata eccessivamente cauta e si è persino rifiutata di generare immagini in risposta a prompt neutri. Sebbene la funzione di generazione di immagini di Gemini sia stata progettata per promuovere la diversità e l'inclusività nei contenuti visivi, ciò ha sollevato preoccupazioni sull'accuratezza delle rappresentazioni storiche e sulle implicazioni più ampie per la prevenzione di pregiudizi e lo sviluppo responsabile dell'AI. È in corso un dibattito su come bilanciare l'obiettivo di promuovere rappresentazioni diversificate nei contenuti generati dall'AI con la necessità di accuratezza e di protezioni contro la travisazione.

Storie come questa chiariscono che, man mano che l'IA continua a evolversi e a integrarsi sempre più nella nostra vita quotidiana, le decisioni prese da sviluppatori e aziende possono avere un impatto significativo sulla società. Nella prossima sezione, approfondiremo suggerimenti e best practice per costruire e gestire sistemi di IA in modo responsabile nel 2024. Che tu stia iniziando o cercando di affinare il tuo approccio, queste linee guida ti aiuteranno a contribuire a un futuro dell'IA più responsabile.

Considerazioni etiche nei progetti YOLOv8

Quando si creano soluzioni di computer vision con YOLOv8, è importante tenere a mente alcune considerazioni etiche chiave, come pregiudizi, equità, privacy, accessibilità e inclusività. Esaminiamo questi fattori con un esempio pratico.

__wf_reserved_inherit
Fig.2 Considerazioni etiche e legali nell'AI.

Supponiamo di star sviluppando un sistema di sorveglianza per un ospedale che monitora i corridoi alla ricerca di comportamenti sospetti. Il sistema potrebbe utilizzare YOLOv8 per rilevare elementi come persone che si attardano in aree riservate, accessi non autorizzati o persino individuare pazienti che potrebbero aver bisogno di aiuto, come quelli che si addentrano in zone pericolose. Analizzerebbe i feed video in diretta dalle telecamere di sicurezza in tutto l'ospedale e invierebbe avvisi in tempo reale al personale di sicurezza quando accade qualcosa di insolito.

Se il tuo modello YOLOv8 è addestrato su dati distorti, potrebbe finire per prendere di mira ingiustamente determinati gruppi di persone in base a fattori come razza o genere, portando a falsi allarmi o persino a discriminazioni. Per evitare ciò, è essenziale bilanciare il tuo set di dati e utilizzare tecniche per rilevare e correggere eventuali distorsioni, come:

  • Data Augmentation: Migliorare il dataset con diversi esempi garantisce una rappresentazione equilibrata tra tutti i gruppi.
  • Ri-campionamento: Regolazione della frequenza delle classi sottorappresentate nei dati di training per bilanciare il dataset.
  • Algoritmi attenti all'equità: implementazione di algoritmi specificamente progettati per ridurre i pregiudizi nelle previsioni.
  • Strumenti di rilevamento dei bias: utilizzo di strumenti che analizzano le previsioni del modello per identificare e correggere i bias.

La privacy è un'altra grande preoccupazione, soprattutto in contesti come gli ospedali dove sono coinvolte informazioni sensibili. YOLOv8 potrebbe acquisire dettagli personali di pazienti e personale, come i loro volti o le loro attività. Per proteggere la loro privacy, è possibile adottare misure come l'anonimizzazione dei dati per rimuovere qualsiasi informazione identificabile, ottenere il consenso adeguato dalle persone prima di utilizzare i loro dati o sfocare i volti nel flusso video. È anche una buona idea crittografare i dati e assicurarsi che siano archiviati e trasmessi in modo sicuro per impedire l'accesso non autorizzato.

È inoltre importante progettare il sistema in modo che sia accessibile e inclusivo. Dovresti assicurarti che funzioni per tutti, indipendentemente dalle loro abilità. In un contesto ospedaliero, questo significa che il sistema dovrebbe essere facile da usare per tutto il personale, i pazienti e i visitatori, compresi quelli con disabilità o altre esigenze di accessibilità. Avere un team diversificato può fare una grande differenza in questo caso. I membri del team provenienti da contesti diversi possono offrire nuove prospettive e aiutare a identificare potenziali problemi che potrebbero essere trascurati. Introducendo diverse prospettive, è più probabile che tu possa costruire un sistema facile da usare e accessibile a una vasta gamma di persone.

Best practice per la sicurezza di YOLOv8

Quando si distribuisce YOLOv8 in applicazioni reali, è importante dare la priorità alla sicurezza per proteggere sia il modello che i dati che utilizza. Prendiamo, ad esempio, un sistema di gestione delle code in un aeroporto che utilizza la computer vision con YOLOv8 per monitorare il flusso di passeggeri. YOLOv8 può essere utilizzato per tracciare il movimento dei passeggeri attraverso i punti di controllo di sicurezza, i gate di imbarco e altre aree per aiutare a identificare i punti di congestione e ottimizzare il flusso di persone per ridurre i tempi di attesa. Il sistema potrebbe utilizzare telecamere posizionate strategicamente intorno all'aeroporto per acquisire feed video in diretta, con YOLOv8 che rileva e conta i passeggeri in tempo reale. Le informazioni ottenute da questo sistema possono quindi essere utilizzate per avvisare il personale quando le code si allungano troppo, aprire automaticamente nuovi punti di controllo o adeguare i livelli di personale per rendere le operazioni più fluide.

__wf_reserved_inherit
Fig.3 Gestione delle code al banco dei biglietti di un aeroporto tramite Ultralytics YOLOv8.

In questo contesto, proteggere il modello YOLOv8 da attacchi e manomissioni è fondamentale. Ciò può essere fatto crittografando i file del modello in modo che gli utenti non autorizzati non possano accedervi o alterarli facilmente. È possibile distribuire il modello su server sicuri e impostare controlli di accesso per impedire la manomissione. Controlli di sicurezza e audit regolari possono aiutare a individuare eventuali vulnerabilità e mantenere il sistema sicuro. Metodi simili possono essere utilizzati per proteggere i dati sensibili, come i feed video dei passeggeri.

Per rafforzare ulteriormente la sicurezza, strumenti come Snyk, GitHub CodeQL e Dependabot possono essere integrati nel processo di sviluppo. Snyk aiuta a identificare e correggere le vulnerabilità nel codice e nelle dipendenze, GitHub CodeQL esegue la scansione del codice per problemi di sicurezza e Dependabot mantiene le dipendenze aggiornate con le ultime patch di sicurezza. In Ultralytics, questi strumenti sono stati implementati per rilevare e prevenire le vulnerabilità di sicurezza.

Errori comuni e come evitarli

Nonostante le buone intenzioni e il rispetto delle migliori pratiche, possono comunque verificarsi delle lacune, lasciando dei vuoti nelle tue soluzioni di intelligenza artificiale, in particolare per quanto riguarda l'etica e la sicurezza. Essere consapevoli di questi problemi comuni può aiutarti ad affrontarli in modo proattivo e a creare modelli YOLOv8 più robusti. Ecco alcune insidie a cui prestare attenzione e suggerimenti su come evitarle:

  • Trascurare la conformità alle normative: La mancata adesione alle normative sull'IA può portare a difficoltà legali e danneggiare la tua reputazione. Rimani aggiornato sulle leggi pertinenti, come il GDPR per la protezione dei dati, e assicurati che i tuoi modelli siano conformi conducendo controlli di conformità regolari.
  • Test inadeguati in condizioni reali: I modelli che non vengono testati in condizioni reali potrebbero fallire quando vengono implementati. Simula scenari limite reali durante i test per identificare precocemente potenziali problemi e adatta i tuoi modelli per essere più accessibili a tutti.
  • Mancanza di misure di responsabilità: Se non è chiaro chi è responsabile per le diverse parti di un sistema di IA, può essere difficile gestire errori, bias o uso improprio, il che può portare a problemi più significativi. Stabilisci una chiara responsabilità per i risultati dell'IA definendo ruoli e responsabilità all'interno del tuo team e impostando processi per affrontare i problemi quando si presentano.
  • Mancanza di considerazione dell'impatto ambientale: I modelli di IA possono avere gravi impatti ambientali. Ad esempio, le implementazioni su larga scala possono richiedere il supporto di data center che consumano grandi quantità di energia per gestire calcoli intensivi. È possibile ottimizzare i modelli per l'efficienza energetica e considerare l'impronta ambientale dei processi di training e implementazione.
  • Disattenzione alla sensibilità culturale: I modelli addestrati senza considerare le differenze culturali possono essere inappropriati o offensivi in determinati contesti. Assicurati che la tua soluzione di IA rispetti le norme e i valori culturali includendo diverse prospettive culturali nei tuoi dati e nel processo di sviluppo.
__wf_reserved_inherit
Fig.4 Principi e requisiti etici.

Costruire soluzioni etiche e sicure con YOLOv8 

Costruire soluzioni di IA con YOLOv8 offre molte possibilità entusiasmanti, ma è fondamentale tenere a mente l'etica e la sicurezza. Concentrandoci su equità, privacy, trasparenza e seguendo le giuste linee guida, possiamo creare modelli che funzionano bene e rispettano i diritti delle persone. È facile trascurare aspetti come la distorsione dei dati, la protezione della privacy o assicurarsi che tutti possano utilizzare il sistema, ma prendersi il tempo per affrontare questi problemi può fare la differenza. Mentre continuiamo a spingere i confini di ciò che l'IA può fare con strumenti come YOLOv8, ricordiamoci il lato umano della tecnologia. Essendo riflessivi e proattivi, possiamo costruire innovazioni di IA che siano responsabili e avanzate!

Assicurati di unirti alla nostra community per gli ultimi aggiornamenti sull'IA! Inoltre, puoi saperne di più sull'IA visitando il nostro repository GitHub ed esplorando le nostre soluzioni in vari settori come produzione e guida autonoma.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti