Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

AI Act, via libera dall’Europarlamento: tutto quello che i CIO devono sapere

Il Parlamento europeo ha approvato l’AI Act, la legge dell’Unione europea sull’intelligenza artificiale: dopo l’accordo raggiunto con gli Stati membri lo scorso dicembre, c’è il via libera dei deputati (con qualche modifica nel testo definitivo rispetto all’accordo politico di fine anno). Il regolamento deve essere ancora formalmente approvato dal Consiglio, ma, in pratica, è fatta: l’AI Act è legge. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo alcune eccezioni.

L’obiettivo principale della legge è quello di arginare i rischi di alcuni sistemi che possono avere impatti sui diritti fondamentali, sulla democrazia, sullo Stato di diritto, nonché sulla sostenibilità ambientale e, al tempo stesso, costruire un ruolo guida dell’Unione nell’intelligenza artificiale, affinché sia un’innovazione positiva per l’umanità.

I CIO dovranno tenere presente che il GDPR, il Regolamento generale sulla protezione dei dati, resta un imprescindibile punto di riferimento anche per i sistemi di IA relativamente ai dati usati per il loro addestramento. Allo stesso modo, durante le fasi di training, dovranno essere pienamente rispettate le norme dell’UE sul diritto d’autore.

Per questo è fondamentale attuare, anche con l’AI Act, quei criteri di governance che sono stati applicati per le altre norme europee, come il Data Act e lo stesso GDPR e, se non è stato fatto, premere sull’acceleratore.

“L’AI Act è una buona notizia per l’Europa e la pone in una posizione geopolitica di avanguardia, confermando l’approccio centrato sulla tutela delle persone”, è il commento di Edoardo Venini, giurista informatico, esperto in privacy e protezione dei dati, consulente su privacy e cybersicurezza per lo Studio legale Bassi Del Moro. “I CIO che intendono usare l’IA per ottimizzare le risorse, automatizzare i processi aziendali, condurre analisi predittive, creare chatbot, e così via, devono avere una governance esattamente come quella per l’IT o per i dati personali”.

IA, le applicazioni vietate

L’AI Act vieta alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone (esistono alcune eccezioni, e solo entro certi confini, per le forze dell’ordine).

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio, legati, per esempio, agli utilizzi nei servizi pubblici e privati di base (come l’assistenza sanitaria e le banche), alla gestione delle frontiere o che hanno un impatto sulla giustizia e sui processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi ad alto rischio che incidono sui loro diritti.

“I sistemi di IA sono sempre considerati ad alto rischio se profilano individui, ovvero effettuano l’elaborazione automatizzata di dati personali per valutare aspetti della vita di una persona, come prestazioni lavorative, situazione economica, salute, preferenze, interessi, affidabilità, comportamento, posizione o movimento”, afferma Luana Lo Piccolo, esperta in etica dell’intelligenza artificiale e diritto tecnologico. “Per questi sistemi sono previsti la Dichiarazione di conformità, la Registrazione nel database dell’UE e il marchio CE. La deadline per la compliance è di 24 mesi (o 36 mesi se il sistema di IA ad alto rischio è già regolato da altra legislazione europea) dopo la pubblicazione del Regolamento sull’intelligenza artificiale”.

AI Act, le novità normative che interessano i CIO

Sono stati classificati a rischio limitato i sistemi che interagiscono con gli individui e non sono né di rischio inaccettabile né ad alto rischio, come deepfake artistici o chatbot. Ma c’è l’obbligo di informare gli utenti che il contenuto è stato generato dall’intelligenza artificiale. Sono a rischio minimo gli altri sistemi di IA (non definiti come inaccettabili, ad alto rischio o a rischio limitato); alcuni esempi riguardano l’impiego nei videogiochi o nei filtri anti-spam.

Tra le modifiche apportate nel testo definitivo, vengono introdotti criteri per esentare sistemi di IA (per esempio, quelli utilizzati per il recruiting o la valutazione del merito creditizio) dalla classificazione ad alto rischio, purché siano rispettate alcune condizioni, come “l’esecuzione di compiti procedurali stretti o il miglioramento dei risultati di attività umane precedenti”, evidenzia Luana Lo Piccolo.

Lo Piccolo sottolinea ancora che “il testo consolidato contiene nuovi dettagli sugli obblighi di conformità per i sistemi IA ad alto rischio, inclusi accordi scritti con terze parti (Art. 28 -2b del Regolamento UE sull’IA) e la governance dei dati (Art. 10 del Regolamento Ue sull’IA)”. Su quest’ultima, l’addestramento dei modelli nei sistemi IA ad alto rischio dovrà essere condotto sulla base di insiemi di dati di addestramento, validazione e test. Invece, nel caso degli obblighi di conformità dei sistemi, l’Ufficio IA dell’Unione europea avrà l’autorità di sviluppare e raccomandare termini contrattuali modello volontari per gli accordi con terze parti.

Come evidenzia Venini: “Se c’è un fornitore da cui viene acquistato il prodotto di IA – che sia un modello su cui fare addestramento o fine-tuning, o un servizio chiavi in mano – al CIO e alle figure vicine, come il CISO e il DPO, spetta il compito di sorvegliare che tale prodotto sia in grado di comprovare il proprio rispetto dell’AI Act e del GDPR, e che le sue applicazioni siano legittime. L’intelligenza artificiale può essere considerata uno strumento IT e, potendo applicarsi a diversi contesti, inclusi quelli in cui sono coinvolti i dati personali, va condotta una valutazione di impatto in cui si considera anche la qualità del fornitore”.

Gli aspetti tecnici: il training dei modelli e l’intelligenza artificiale generativa

L’AI Act insiste sulla necessità di utilizzare, per il training dei sistemi di IA, dati di alta qualità e un approccio trasparente relativamente alle fonti dei dati e alle finalità originarie della raccolta. Per questo Chiara Bocchi, avvocata in ambito TMT/Commerciale/Protezione dei dati e counsel dello studio legale Dentons, ritiene “fortemente sconsigliato” il web scraping per raccogliere ingenti volumi di dati a fini di training di sistemi di IA. “Questa pratica espone a rischi nell’ambito della proprietà intellettuale, dell’antitrust e della data protection”, sottolinea Bocchi, ricordando che l’uso legittimo e conforme dei dati personali muove, tra le altre cose, anche dal rispetto del principio di limitazione della finalità prescritto dal GDPR.

“Un’esemplificazione potrebbe essere questa”, afferma Bocchi: “I miei dati di contatto professionali sono pubblici, ma questo non significa che possano essere utilizzati per qualsiasi scopo solo perché sono tali. La finalità di averli resi pubblici è legata alla mia professione; un successivo utilizzo a fini, per esempio, di marketing non necessariamente è compatibile e, quindi, possibile. Lo stesso discorso vale per i dati personali usati per l’addestramento dei modelli IA”, prosegue l’esperta: “il CIO può essere certo della loro provenienza e che la finalità di training dei sistemi di intelligenza artificiale sia perseguibile, in base alla finalità per la quale quegli stessi dati personali sono stati pubblicati sul web?”.

Queste valutazioni andranno fatte anche in merito all’impiego dei dati personali di cui l’azienda è titolare: questi dati possono essere usati per l’addestramento dell’IA, purché nel rispetto del GDPR e, non ultimo, del principio di compatibilità del training dell’intelligenza artificiale con la finalità iniziale della raccolta.  

Un’alternativa per i CIO è l’impiego dei dati sintetici che, con alcuni accorgimenti, possono risultare anonimi. “Questi ultimi non sembrano dare gli stessi risultati nell’addestramento dei modelli, ma”, evidenzia Bocchi, “non rientrando nella definizione di dati personali, non sono soggetti alle norme del GDPR”.

Tuttavia, anche i dati sintetici possono avere dei bias o altre distorsioni e resta essenziale che vi sia sempre un’adeguata supervisione umana e una governance dietro la raccolta e l’uso dei dati, di qualunque tipo e fonte.

C’è un ulteriore aspetto da considerare nell’addestramento dei modelli: l’aggiornamento dei dati, perché le informazioni cambiano e un dato può essere corretto oggi ma non domani.

Nell’AI Act, si parla anche di modelli GPAI (General Purpose AI, su cui si basa l’IA generativa) open-source. Questi sono stati esentati da alcuni requisiti di trasparenza, a condizione che rendano pubblici i loro parametri e le loro informazioni. Va detto, però, che questa esenzione non si applica ai modelli che presentano un rischio sistemico, e tutti devono comunque soddisfare gli obblighi relativi ai riassunti del contenuto utilizzato per l’addestramento e al rispetto delle leggi sul diritto d’autore.

Le competenze e la governance

Alcuni dei punti presenti nell’AI Act sono stati evidenziati anche dall’AI Manifesto pubblicato da Anitec-Assinform, associazione di Confindustria che rappresenta le imprese dell’ICT. Al governo italiano, per esempio, si chiede di spingere sui programmi di sperimentazione controllati, e di istituire sandbox regolamentari (lo prevede anche l’UE), a garanzia del fatto che le soluzioni siano sicure e all’avanguardia, e agevolino l’accesso delle PMI alle nuove tecnologie. Il Manifesto afferma anche che l’intelligenza artificiale non sostituirà le persone sul lavoro, ma le farà lavorare in modo diverso, mettendo anche l’accento sulla necessità di svolgere attività di formazione. Ma quali competenze servono, e chi se ne deve occupare?

“Le competenze sull’IA vanno trattate come soft skill e come un insieme di conoscenze trasversali”, afferma Alessandro De Nisco, professore ordinario di management e marketing presso l’Università degli Studi Internazionali di Roma (UNINT) e direttore del Dipartimento di Scienze umanistiche e sociali internazionali dello stesso ateneo. “Guardando la questione dal punto di osservazione universitario, le competenze dell’intelligenza artificiale dovrebbero entrare nei programmi di formazione di tutti gli indirizzi di studio e includere l’aggiornamento dei docenti. Questo implica che avremo una forza lavoro preparata a usare l’IA come strumento di lavoro in tempi non velocissimi, per cui, nel breve termine, sono le imprese a dover intervenire con i loro programmi di formazione”.

La vera sfida dell’intelligenza artificiale, infatti, osserva De Nisco, “non è lo sviluppo di applicativi, ma la riformulazione della propria organizzazione interna per inserire progressivamente questa tecnologia nell’architettura aziendale nel suo complesso, sapendo come si usa, e con quali limiti e rischi. La prima competenza oggi è saper verificare i dati e le informazioni generate dall’IA per qualunque processo aziendale, perché i rischi di output errati, datati o non etici potrebbero minare i suoi grandi vantaggi”.

Governance, linee guida e collaborazione inter-dipartimentale sono il must dell’IA in azienda e, se i CIO temono di non trovare sufficienti talenti IT, possono tenere presente che le competenze richieste sono così trasversali da poter attingere anche ai percorsi di studio adiacenti (da economia a fisica), fino a quelli (apparentemente) più distanti, come quelli umanistici e delle scienze sociali.

Le scadenze per la compliance

In base al testo finale dell’AI Act, i divieti su pratiche specifiche di intelligenza artificiale (come il social scoring) saranno applicati entro 6 mesi, le regole sui modelli GPAI entro 12 mesi (con 12 mesi aggiuntivi per i modelli preesistenti) e le normative per i sistemi IA utilizzati come componenti di sicurezza o che sono ad alto rischio entro 36 mesi mentre questi ultimi esistenti prima dell’applicazione dell’atto devono conformarsi solo se subiscono cambiamenti significativi nel design, mentre quelli utilizzati dalle autorità pubbliche hanno una finestra di conformità di 4 anni.

Artificial Intelligence, CIO, Generative AI


Read More from This Article: AI Act, via libera dall’Europarlamento: tutto quello che i CIO devono sapere
Source: News

Category: NewsMarch 21, 2024
Tags: art

Post navigation

PreviousPrevious post:Pioneering 5G Acceleration, Indonesia Marks a Revolutionary Digital Era Through Its First 5G WarehouseNextNext post:How technology is enabling Melbourne Airport’s growth

Related posts

휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
May 9, 2025
Epicor expands AI offerings, launches new green initiative
May 9, 2025
MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
May 9, 2025
오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
May 9, 2025
SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
May 8, 2025
IBM aims to set industry standard for enterprise AI with ITBench SaaS launch
May 8, 2025
Recent Posts
  • 휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
  • Epicor expands AI offerings, launches new green initiative
  • MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
  • 오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
  • SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.