Scoprite come le nuove leggi californiane sull'IA bilanciano l'innovazione con la responsabilità, coprendo la privacy, i deepfakes, l'assistenza sanitaria, l'istruzione e la sicurezza.

Scoprite come le nuove leggi californiane sull'IA bilanciano l'innovazione con la responsabilità, coprendo la privacy, i deepfakes, l'assistenza sanitaria, l'istruzione e la sicurezza.
Dalle auto a guida autonoma all'assistenza sanitaria, le innovazioni dell'intelligenza artificiale (AI) e le aziende tecnologiche di nuova generazione stanno iniziando a svolgere un ruolo fondamentale nel rimodellare la nostra vita quotidiana. Di conseguenza, le dimensioni del mercato globale dell'IA erano pari a 196,63 miliardi di dollari nel 2023 e si prevede una crescita media del 36% annuo dal 2024 al 2030. Questi numeri dimostrano la rapidità con cui l'IA sta crescendo.
Da un lato, il rapido sviluppo dell'IA sta creando soluzioni a vari problemi in diversi settori. Dall'altro lato, questa velocità porta alla luce la necessità di uno sviluppo responsabile dell'IA per assicurarsi che i miglioramenti siano etici e vantaggiosi per la società.
Ad esempio, nel 2016 Microsoft ha lanciato un chatbot, Tay, su X (ex Twitter). Era stato progettato per imparare dalle conversazioni con gli utenti. Tuttavia, poco dopo il suo rilascio, Tay ha iniziato a generare risposte con un linguaggio non professionale, poiché ha captato una serie di interazioni. Sebbene Microsoft abbia prontamente messo offline il bot, questo è un buon esempio dell'importanza di garantire che i dati utilizzati per l'addestramento dell'IA siano affidabili e che il pubblico sia consapevole di come le aziende utilizzano tali dati per i prodotti di IA.
Per rispondere a questa preoccupazione, lo scorso settembre il governatore della California, Gavin Newsom, ha firmato più di una dozzina di proposte di legge relative all'IA. Queste leggi riguardano tutti gli aspetti, dalla divulgazione dei dettagli sui dati di addestramento alla gestione dei deepfakes. In questo articolo esploreremo le leggi californiane sull'IA e ciò che esse comportano. Iniziamo!
Sono state firmate tre importanti proposte di legge per sostenere lo sviluppo dell'IA e renderlo più sicuro e affidabile. L'Assembly Bill (AB) 2013, che entrerà in vigore nel 2026, richiede ai fornitori di IA generativa di pubblicare i dettagli relativi ai loro set di dati di addestramento. Questi dettagli includono le fonti dei set di dati, le modalità di utilizzo dei dati, il numero di punti dati nel set, l'inclusione di dati protetti da copyright o da licenza, il periodo di tempo in cui i dati sono stati raccolti, ecc. La condivisione di queste informazioni aiuterà le aziende di IA a creare fiducia nel pubblico.
Un'altra legge importante che è stata firmata è la AB 1008. Il disegno di legge estende le leggi sulla privacy esistenti in California alle soluzioni di IA generativa. L'AB 1008 è stato introdotto per rispondere alle preoccupazioni e migliorare la fiducia del pubblico nel modo in cui i sistemi di IA gestiscono le informazioni personali. Un sondaggio ha rilevato che oltre l '81% dei consumatori teme che le aziende di IA possano utilizzare le loro informazioni in modi non previsti. Stabilendo limiti chiari su come le aziende possono usare e trarre profitto dalle informazioni personali, come nomi, indirizzi e dati biometrici, questa legge aiuta le aziende di IA a rassicurare gli utenti sul fatto che i loro dati saranno gestiti in modo responsabile, anche se esposti da un sistema di IA.
Allo stesso modo, il Senate Bill (SB) 896, o Generative AI Accountability Act, richiede all 'Office of Emergency Services (CalOES) della California di eseguire analisi dei rischi sulle potenziali minacce poste dai sistemi di IA generativa. Il CalOES collaborerà con aziende pioniere dell'IA, come OpenAI e Anthropic, per discutere e analizzare le potenziali minacce dell'IA alle infrastrutture critiche dello Stato.
In precedenza abbiamo analizzato come l'IA nell'istruzione possa personalizzare le esperienze di apprendimento, ridefinire le pratiche didattiche, offrire feedback in tempo reale e supportare gli educatori con strumenti e approfondimenti avanzati. In effetti, le innovazioni dell'IA possono creare un ambiente di studio più efficace e coinvolgente per gli studenti. Gli educatori e gli insegnanti di tutto il mondo stanno utilizzando l'IA con maggiore regolarità, con progetti pilota di successo e implementazioni più ampie in corso. Gli studi dimostrano che oltre il 50% degli insegnanti ritiene che l'IA nelle classi abbia avuto un impatto positivo sul processo di insegnamento e apprendimento.
La California ha introdotto due leggi riguardanti l'uso dell'IA nelle istituzioni educative. L 'AB 2876 obbliga lo State Board of Education della California a prendere in considerazione l'alfabetizzazione all'IA (dopo il 1° gennaio 2025) nei programmi di studio e nei materiali didattici di matematica, scienze e storia. L'obiettivo di questa legge è assicurarsi che le scuole californiane istruiscano gli studenti sulle basi del funzionamento dell'intelligenza artificiale, nonché sui limiti, gli impatti e le considerazioni etiche dell'uso di questa tecnologia.
Inoltre, l'SB 1288 richiede ai sovrintendenti della California di creare gruppi di lavoro (entro il 1° gennaio 2026) per esplorare le modalità di utilizzo dell'IA nelle scuole pubbliche. Questi gruppi di lavoro dovranno presentare i loro risultati e le loro raccomandazioni alle commissioni politiche e fiscali competenti della legislatura entro il 1° gennaio 2027. Dopo la presentazione del rapporto, il gruppo di lavoro sarà sciolto e le disposizioni saranno abrogate il 1° gennaio 2031.
L'intelligenza artificiale generativa sta migliorando il settore sanitario, consentendo innovazioni per la scoperta di nuovi farmaci, la diagnosi di malattie, la pianificazione di trattamenti e i chatbot medici. Queste applicazioni possono fornire vantaggi come il monitoraggio in tempo reale, la consulenza e il supporto per migliorare i risultati dei pazienti. Altre tecnologie AI, come la realtà aumentata (AR), possono essere utilizzate per pianificare e simulare interventi chirurgici.
L'integrazione dell'IA generativa nell'assistenza sanitaria comporta alcuni rischi legati alla privacy dei dati e alle normative. È fondamentale dare priorità all'accuratezza, all'affidabilità e all'equità dei risultati generati dall'IA, salvaguardando al contempo la privacy delle informazioni sanitarie.
Per affrontare queste sfide, la California ha approvato due leggi sull'uso dell'IA generativa nell'assistenza sanitaria. L 'AB 3030 prevede che gli operatori sanitari rendano noto quando utilizzano l'IA generativa per comunicare con i pazienti, in particolare quando questi messaggi contengono informazioni cliniche del paziente. La legge SB 1120 limita il modo in cui i fornitori di servizi sanitari e le assicurazioni sanitarie possono automatizzare i loro servizi. Queste nuove leggi garantiscono inoltre che i medici autorizzati supervisionino l'uso degli strumenti di IA in questi contesti.
Anche lo Stato della California ha approvato leggi volte a limitare l'uso dell'IA per diffondere informazioni fuorvianti o imprecise. La legge SB 942 richiede che i sistemi di IA generativa più diffusi indichino chiaramente nei loro dati di origine che il contenuto è stato creato dall'IA. Molte aziende di IA lo fanno già e diversi strumenti gratuiti (ZeroGPT, Winston AI, GLTR, ecc.) possono aiutare a leggere i dati di partenza e a individuare i contenuti generati dall'IA.
In California sono state approvate tre nuove leggi(AB 1831, SB 926 e SB 981) per affrontare le questioni legate ai deepfake. Queste leggi ampliano le protezioni esistenti, criminalizzano l'uso improprio di contenuti generati dall'intelligenza artificiale e richiedono alle piattaforme dei social media di creare canali di segnalazione per i contenuti deepfake. L'attuazione delle leggi è prevista per il gennaio 2025.
Una delle proposte di legge approvate si è concentrata sull'attribuzione di una definizione corretta di IA. L 'AB 2885 stabilisce che l'IA è definita come "un sistema ingegnerizzato o basato su macchine che varia nel suo livello di autonomia e che può, per obiettivi espliciti o impliciti, dedurre dagli input che riceve come generare output in grado di influenzare ambienti fisici o virtuali".
Sono state inoltre introdotte due leggi interessanti per l'industria dell'intrattenimento. Il più grande sindacato americano di attori cinematografici e radiotelevisivi (SAG-AFTRA) ha svolto un ruolo cruciale nella promozione di queste leggi. La legge AB 2602 prevede che gli studi cinematografici debbano ottenere il permesso di un attore prima di utilizzare l'intelligenza artificiale per creare una replica della sua voce e delle sue sembianze. Nel frattempo, l'AB 1836 vieta agli studios di creare repliche digitali di interpreti deceduti (come il personaggio di Peter Cushing in Star Wars: Rogue One) senza il consenso dei loro eredi.
Dopo aver visto ognuna di queste leggi, vi sarete chiesti perché sono davvero necessarie. Le normative sull'IA sono da tempo un argomento di discussione popolare, ma hanno acquisito un notevole slancio con l'aumento dei contenuti deepfake, che hanno avuto un impatto su diversi settori, tra cui i media e la politica. L'uso di contenuti generati dall'intelligenza artificiale online ha suscitato preoccupazioni per la disinformazione e il suo potenziale impatto sui risultati delle elezioni, ad esempio. Crescono anche i timori per la privacy e l'uso improprio dei dati personali da parte delle innovazioni dell'IA. Queste problematiche sono state il motivo per cui sono state introdotte diverse nuove leggi per affrontare questi problemi.
Ad esempio, il disegno di legge AB 2905 impone alle robocall di dichiarare se si tratta di voci generate dall'intelligenza artificiale. Inoltre, l'AB 2655 chiede alle grandi piattaforme online come Facebook e X di rimuovere o etichettare i deepfakes relativi alle elezioni e di creare canali di segnalazione per tali contenuti. I candidati e i funzionari eletti possono anche chiedere un provvedimento ingiuntivo se le piattaforme non si adeguano.
Un'altra legge, la AB 2839, prende di mira gli utenti dei social media che pubblicano o ripropongono deepfakes che potrebbero ingannare gli elettori. Allo stesso modo, la legge AB 2355 prevede una chiara informativa per gli annunci politici realizzati con strumenti di intelligenza artificiale.
Le nuove leggi californiane sull'IA riflettono il crescente impegno a bilanciare innovazione e responsabilità. Affrontando questioni chiave come la trasparenza dei dati, la privacy, i deepfakes e l'uso dell'IA nell'assistenza sanitaria e nell'istruzione, queste leggi mirano a salvaguardare gli individui e la società, promuovendo al contempo uno sviluppo responsabile dell'IA. Con la continua evoluzione dell'IA, queste norme contribuiranno a garantire che la sua crescita sia accompagnata da pratiche etiche e dalla fiducia del pubblico. Queste leggi potrebbero inoltre incoraggiare altre regioni del mondo a seguirne l'esempio.
Per saperne di più, visitate il nostro repository GitHub e partecipate alla nostra comunità. Esplorate le applicazioni dell'IA nel settore manifatturiero e agricolo sulle nostre pagine dedicate alle soluzioni. 🚀