Il Parlamento europeo ha approvato l’AI Act, la legge dell’Unione europea sull’intelligenza artificiale: dopo l’accordo raggiunto con gli Stati membri lo scorso dicembre, c’è il via libera dei deputati (con qualche modifica nel testo definitivo rispetto all’accordo politico di fine anno). Il regolamento deve essere ancora formalmente approvato dal Consiglio, ma, in pratica, è fatta: l’AI Act è legge. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo alcune eccezioni.
L’obiettivo principale della legge è quello di arginare i rischi di alcuni sistemi che possono avere impatti sui diritti fondamentali, sulla democrazia, sullo Stato di diritto, nonché sulla sostenibilità ambientale e, al tempo stesso, costruire un ruolo guida dell’Unione nell’intelligenza artificiale, affinché sia un’innovazione positiva per l’umanità.
I CIO dovranno tenere presente che il GDPR, il Regolamento generale sulla protezione dei dati, resta un imprescindibile punto di riferimento anche per i sistemi di IA relativamente ai dati usati per il loro addestramento. Allo stesso modo, durante le fasi di training, dovranno essere pienamente rispettate le norme dell’UE sul diritto d’autore.
Per questo è fondamentale attuare, anche con l’AI Act, quei criteri di governance che sono stati applicati per le altre norme europee, come il Data Act e lo stesso GDPR e, se non è stato fatto, premere sull’acceleratore.
“L’AI Act è una buona notizia per l’Europa e la pone in una posizione geopolitica di avanguardia, confermando l’approccio centrato sulla tutela delle persone”, è il commento di Edoardo Venini, giurista informatico, esperto in privacy e protezione dei dati, consulente su privacy e cybersicurezza per lo Studio legale Bassi Del Moro. “I CIO che intendono usare l’IA per ottimizzare le risorse, automatizzare i processi aziendali, condurre analisi predittive, creare chatbot, e così via, devono avere una governance esattamente come quella per l’IT o per i dati personali”.
IA, le applicazioni vietate
L’AI Act vieta alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone (esistono alcune eccezioni, e solo entro certi confini, per le forze dell’ordine).
Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio, legati, per esempio, agli utilizzi nei servizi pubblici e privati di base (come l’assistenza sanitaria e le banche), alla gestione delle frontiere o che hanno un impatto sulla giustizia e sui processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi ad alto rischio che incidono sui loro diritti.
“I sistemi di IA sono sempre considerati ad alto rischio se profilano individui, ovvero effettuano l’elaborazione automatizzata di dati personali per valutare aspetti della vita di una persona, come prestazioni lavorative, situazione economica, salute, preferenze, interessi, affidabilità, comportamento, posizione o movimento”, afferma Luana Lo Piccolo, esperta in etica dell’intelligenza artificiale e diritto tecnologico. “Per questi sistemi sono previsti la Dichiarazione di conformità, la Registrazione nel database dell’UE e il marchio CE. La deadline per la compliance è di 24 mesi (o 36 mesi se il sistema di IA ad alto rischio è già regolato da altra legislazione europea) dopo la pubblicazione del Regolamento sull’intelligenza artificiale”.
AI Act, le novità normative che interessano i CIO
Sono stati classificati a rischio limitato i sistemi che interagiscono con gli individui e non sono né di rischio inaccettabile né ad alto rischio, come deepfake artistici o chatbot. Ma c’è l’obbligo di informare gli utenti che il contenuto è stato generato dall’intelligenza artificiale. Sono a rischio minimo gli altri sistemi di IA (non definiti come inaccettabili, ad alto rischio o a rischio limitato); alcuni esempi riguardano l’impiego nei videogiochi o nei filtri anti-spam.
Tra le modifiche apportate nel testo definitivo, vengono introdotti criteri per esentare sistemi di IA (per esempio, quelli utilizzati per il recruiting o la valutazione del merito creditizio) dalla classificazione ad alto rischio, purché siano rispettate alcune condizioni, come “l’esecuzione di compiti procedurali stretti o il miglioramento dei risultati di attività umane precedenti”, evidenzia Luana Lo Piccolo.
Lo Piccolo sottolinea ancora che “il testo consolidato contiene nuovi dettagli sugli obblighi di conformità per i sistemi IA ad alto rischio, inclusi accordi scritti con terze parti (Art. 28 -2b del Regolamento UE sull’IA) e la governance dei dati (Art. 10 del Regolamento Ue sull’IA)”. Su quest’ultima, l’addestramento dei modelli nei sistemi IA ad alto rischio dovrà essere condotto sulla base di insiemi di dati di addestramento, validazione e test. Invece, nel caso degli obblighi di conformità dei sistemi, l’Ufficio IA dell’Unione europea avrà l’autorità di sviluppare e raccomandare termini contrattuali modello volontari per gli accordi con terze parti.
Come evidenzia Venini: “Se c’è un fornitore da cui viene acquistato il prodotto di IA – che sia un modello su cui fare addestramento o fine-tuning, o un servizio chiavi in mano – al CIO e alle figure vicine, come il CISO e il DPO, spetta il compito di sorvegliare che tale prodotto sia in grado di comprovare il proprio rispetto dell’AI Act e del GDPR, e che le sue applicazioni siano legittime. L’intelligenza artificiale può essere considerata uno strumento IT e, potendo applicarsi a diversi contesti, inclusi quelli in cui sono coinvolti i dati personali, va condotta una valutazione di impatto in cui si considera anche la qualità del fornitore”.
Gli aspetti tecnici: il training dei modelli e l’intelligenza artificiale generativa
L’AI Act insiste sulla necessità di utilizzare, per il training dei sistemi di IA, dati di alta qualità e un approccio trasparente relativamente alle fonti dei dati e alle finalità originarie della raccolta. Per questo Chiara Bocchi, avvocata in ambito TMT/Commerciale/Protezione dei dati e counsel dello studio legale Dentons, ritiene “fortemente sconsigliato” il web scraping per raccogliere ingenti volumi di dati a fini di training di sistemi di IA. “Questa pratica espone a rischi nell’ambito della proprietà intellettuale, dell’antitrust e della data protection”, sottolinea Bocchi, ricordando che l’uso legittimo e conforme dei dati personali muove, tra le altre cose, anche dal rispetto del principio di limitazione della finalità prescritto dal GDPR.
“Un’esemplificazione potrebbe essere questa”, afferma Bocchi: “I miei dati di contatto professionali sono pubblici, ma questo non significa che possano essere utilizzati per qualsiasi scopo solo perché sono tali. La finalità di averli resi pubblici è legata alla mia professione; un successivo utilizzo a fini, per esempio, di marketing non necessariamente è compatibile e, quindi, possibile. Lo stesso discorso vale per i dati personali usati per l’addestramento dei modelli IA”, prosegue l’esperta: “il CIO può essere certo della loro provenienza e che la finalità di training dei sistemi di intelligenza artificiale sia perseguibile, in base alla finalità per la quale quegli stessi dati personali sono stati pubblicati sul web?”.
Queste valutazioni andranno fatte anche in merito all’impiego dei dati personali di cui l’azienda è titolare: questi dati possono essere usati per l’addestramento dell’IA, purché nel rispetto del GDPR e, non ultimo, del principio di compatibilità del training dell’intelligenza artificiale con la finalità iniziale della raccolta.
Un’alternativa per i CIO è l’impiego dei dati sintetici che, con alcuni accorgimenti, possono risultare anonimi. “Questi ultimi non sembrano dare gli stessi risultati nell’addestramento dei modelli, ma”, evidenzia Bocchi, “non rientrando nella definizione di dati personali, non sono soggetti alle norme del GDPR”.
Tuttavia, anche i dati sintetici possono avere dei bias o altre distorsioni e resta essenziale che vi sia sempre un’adeguata supervisione umana e una governance dietro la raccolta e l’uso dei dati, di qualunque tipo e fonte.
C’è un ulteriore aspetto da considerare nell’addestramento dei modelli: l’aggiornamento dei dati, perché le informazioni cambiano e un dato può essere corretto oggi ma non domani.
Nell’AI Act, si parla anche di modelli GPAI (General Purpose AI, su cui si basa l’IA generativa) open-source. Questi sono stati esentati da alcuni requisiti di trasparenza, a condizione che rendano pubblici i loro parametri e le loro informazioni. Va detto, però, che questa esenzione non si applica ai modelli che presentano un rischio sistemico, e tutti devono comunque soddisfare gli obblighi relativi ai riassunti del contenuto utilizzato per l’addestramento e al rispetto delle leggi sul diritto d’autore.
Le competenze e la governance
Alcuni dei punti presenti nell’AI Act sono stati evidenziati anche dall’AI Manifesto pubblicato da Anitec-Assinform, associazione di Confindustria che rappresenta le imprese dell’ICT. Al governo italiano, per esempio, si chiede di spingere sui programmi di sperimentazione controllati, e di istituire sandbox regolamentari (lo prevede anche l’UE), a garanzia del fatto che le soluzioni siano sicure e all’avanguardia, e agevolino l’accesso delle PMI alle nuove tecnologie. Il Manifesto afferma anche che l’intelligenza artificiale non sostituirà le persone sul lavoro, ma le farà lavorare in modo diverso, mettendo anche l’accento sulla necessità di svolgere attività di formazione. Ma quali competenze servono, e chi se ne deve occupare?
“Le competenze sull’IA vanno trattate come soft skill e come un insieme di conoscenze trasversali”, afferma Alessandro De Nisco, professore ordinario di management e marketing presso l’Università degli Studi Internazionali di Roma (UNINT) e direttore del Dipartimento di Scienze umanistiche e sociali internazionali dello stesso ateneo. “Guardando la questione dal punto di osservazione universitario, le competenze dell’intelligenza artificiale dovrebbero entrare nei programmi di formazione di tutti gli indirizzi di studio e includere l’aggiornamento dei docenti. Questo implica che avremo una forza lavoro preparata a usare l’IA come strumento di lavoro in tempi non velocissimi, per cui, nel breve termine, sono le imprese a dover intervenire con i loro programmi di formazione”.
La vera sfida dell’intelligenza artificiale, infatti, osserva De Nisco, “non è lo sviluppo di applicativi, ma la riformulazione della propria organizzazione interna per inserire progressivamente questa tecnologia nell’architettura aziendale nel suo complesso, sapendo come si usa, e con quali limiti e rischi. La prima competenza oggi è saper verificare i dati e le informazioni generate dall’IA per qualunque processo aziendale, perché i rischi di output errati, datati o non etici potrebbero minare i suoi grandi vantaggi”.
Governance, linee guida e collaborazione inter-dipartimentale sono il must dell’IA in azienda e, se i CIO temono di non trovare sufficienti talenti IT, possono tenere presente che le competenze richieste sono così trasversali da poter attingere anche ai percorsi di studio adiacenti (da economia a fisica), fino a quelli (apparentemente) più distanti, come quelli umanistici e delle scienze sociali.
Le scadenze per la compliance
In base al testo finale dell’AI Act, i divieti su pratiche specifiche di intelligenza artificiale (come il social scoring) saranno applicati entro 6 mesi, le regole sui modelli GPAI entro 12 mesi (con 12 mesi aggiuntivi per i modelli preesistenti) e le normative per i sistemi IA utilizzati come componenti di sicurezza o che sono ad alto rischio entro 36 mesi mentre questi ultimi esistenti prima dell’applicazione dell’atto devono conformarsi solo se subiscono cambiamenti significativi nel design, mentre quelli utilizzati dalle autorità pubbliche hanno una finestra di conformità di 4 anni.
Artificial Intelligence, CIO, Generative AI
Read More from This Article: AI Act, via libera dall’Europarlamento: tutto quello che i CIO devono sapere
Source: News