Era il novembre del 2021 quando l’Unesco annunciava l’adozione del primo testo mondiale sull’etica dell’intelligenza artificiale, ratificato dai 193 Paesi membri dell’organizzazione delle Nazioni Unite. Le tecnologie dell’AI “possono rendere grandi servizi all’umanità” e “tutti i Paesi possono beneficiarne”, ma “sollevano anche preoccupazioni etiche di fondo”, recitava il testo, raccomandando uno sviluppo e un uso dell’AI fondato sui valori di “rispetto, protezione e promozione dei diritti dell’Uomo, diversità ed inclusione, promozione delle società pacifiche e dell’ambiente”. A tre anni di distanza, nella piena esplosione delle tecnologie di intelligenza artificiale, inclusa quella generativa, le questioni dell’etica restano centrali per un’adozione dell’intelligenza artificiale sostenibile.
Infatti, a settembre di quest’anno, la Commissione europea ha firmato la convenzione quadro del Consiglio d’Europa sull’AI e i diritti umani, la democrazia e lo Stato di diritto, primo strumento internazionale giuridicamente vincolante sull’intelligenza artificiale, pienamente compatibile con il diritto dell’Unione e, in particolare, con l’AI Act. La convenzione include una serie di concetti chiave già presenti nella legge dell’UE sull’argomento, tra cui l’AI antropocentrica, l’approccio basato sul rischio, i principi per un’intelligenza artificiale affidabile (trasparenza, solidità, sicurezza, governance e protezione dei dati), la trasparenza per i contenuti generati dall’AI e nelle sue interazioni con i sistemi e la supervisione umana. La convenzione sarà attuata nell’UE mediante l’AI Act, rafforzandone l’attenzione ai rischi.
Le imprese italiane sono consapevoli degli impatti a tutto campo dell’intelligenza artificiale e della necessità di attuare metodologie e processi per garantire il rispetto dei principi etici nell’AI, anche se la maturità delle strategie non è elevata. La Trustworthy AI Survey 2023 realizzata da Deloitte Italia, in collaborazione con ABI Lab e la Società Italiana per l’Etica dell’Intelligenza Artificiale SIpEIA, rivela che le aziende hanno investito soprattutto nel garantire la privacy (58%) e la sicurezza (52%) e molto meno nella trasparenza, nella spiegabilità (19%) e nella fairness (13%) dei sistemi AI. Tuttavia, nel 2024, l’avvento della GenAI e l’entrata in vigore dell’AI Act hanno contribuito a creare un approccio più strutturato, soprattutto nelle grandi aziende.
“Siamo di fronte a un importante cambio di paradigma, come mostrano diverse indagini, inclusa una survey condotta da The Innovation Group su un campione di 150 imprese italiane nel 2024”, evidenzia Ezio Viola, co-founder di TIG-The Innovation Group. “Il 46% delle aziende italiane afferma di voler investire nei prossimi 12 mesi in GenAI. La maggior parte (39%) si trova in una fase di studio, ma non mancano (è il 33% dei rispondenti) casi d’uso già realizzati, anche se non sempre scalati a livello enterprise. Siamo agli inizi, ma nelle grandi aziende c’è la consapevolezza degli impatti etici e della sostenibilità dell’intelligenza artificiale, in particolare dopo l’approvazione dell’AI Act europeo e in presenza di strategie e azioni legate, in generale, alla sostenibilità aziendale”.
In Italia una rete di imprese per l’adozione etica dell’AI
In generale, le aziende italiane partono dalla considerazione delle esigenze aziendali per l’introduzione dell’AI e della GenAI, mentre la sicurezza, la privacy o la trasparenza vengono dopo. Eppure la gestione dei rischi e degli impatti etici dovrebbero salire allo stesso livello delle considerazioni tecnologiche.
“Le organizzazioni si trovano sempre più di fronte a un bivio: mettere al centro la produttività a discapito delle persone, o trovare il giusto equilibrio per integrare soluzioni AI al fine di potenziare il proprio capitale umano, senza compromettere la dignità dei lavoratori e mantenendo alti standard di compliance. Riteniamo che la seconda strada sia l’unica perseguibile per una crescita aziendale sostenibile, ma senz’altro anche la più complessa”, afferma Andrea Cappelletti, Direttore Business Unit Digital Transformation & Hyperautomation di S2E, società di consulenza nel campo della business technology.
S2E si è fatta promotrice di Rethic.AI, la prima rete d’imprese in Italia che riunisce aziende impegnate a promuovere un’adozione etica, sicura e responsabile dell’intelligenza artificiale. L’iniziativa vuole rispondere alle sfide etiche e normative poste dalla tecnologia, con l’obiettivo di garantire trasparenza, conformità e sostenibilità, valorizzando il capitale umano e dando un approccio antropocentrico all’AI.
“Il progetto Rethic.AI è nato dall’ascolto diretto delle aziende e dal loro forte desiderio di innovazione, che si scontra però con la mancanza di punti di riferimento concreti per navigare la complessità di un’adozione dell’AI etica e sostenibile”, afferma Cappelletti.
La rete di Rethic.AI agirà promuovendo iniziative di networking e definizione di best practice e benchmark per la governance dei processi e dei dati legati all’impatto etico dell’AI. Verranno organizzati webinar, eventi, tavole rotonde e attività formative sia con le imprese, sia con il mondo accademico e istituzionale.
Progetti di AI antropocentrica
S2E ha invitato tutte le aziende a diventare “pionieri etici di Rethic.AI”, partecipando attivamente a questo movimento per un’adozione responsabile dell’intelligenza artificiale. Non ci sono limiti di dimensioni o geografia, purché vi sia un impegno condiviso verso pratiche etiche, tenendo fermi sette principi chiave: centralità della persona, sostenibilità e responsabilità sociale, trasparenza e compliance, equità e non discriminazione, innovazione Made in Italy, formazione delle competenze e sicurezza e privacy dei dati.
Tra le aziende già nella rete c’è Ecopack Group (specializzata nella produzione di stampi da cottura e imballi specifici per l’industria dolciaria), il cui CIO, Marco Casalone, racconta: “Ciè sembrata una buona occasione per entrare a far parte di un network di aziende con obiettivi affini ai nostri sull’adozione dell’AI nel settore industriale”.
Ecopack già usa l’AI come supporto per le attività quotidiane degli operatori. In particolare, il CIO sta sviluppando due progetti paralleli: uno dedicato alla documentazione di qualità per gli operatori delle macchine, che tramite un bot possono richiedere informazioni o chiarire dubbi su questioni che prima avrebbero dovuto cercare nelle librerie; l’altro per la gestione dei dati strutturati e che dà supporto al personale degli uffici, riducendo i tempi di ricerca. Anche in questo caso, tramite un bot, gli operatori possono interrogare i dati direttamente dal software gestionale in forma discorsiva, simulando l’interazione con una sorta di collega virtuale, pronto a fornire le informazioni necessarie al momento giusto.
“In questa fase iniziale, non abbiamo riscontrato problematiche dirette legate all’uso dell’AI”, evidenzia Casalone. “Tuttavia, prestiamo particolare attenzione a evitare qualsiasi senso di alienazione tra i dipendenti, salvaguardando il benessere organizzativo. A questo scopo, stiamo predisponendo dei mini-corsi formativi sull’AI per rendere tutti i dipendenti partecipi del cambiamento, dei benefici che l’AI può portare e, allo stesso tempo, per tenerli aggiornati sull’avanzamento dei progetti in corso”.
Anche l’azienda della sicurezza e della logistica Multiprotexion ha aderito a Rethic.AI. “Ci è sembrata una proposta interessante perché ci consente di entrare in contatto con altre realtà che hanno adottato soluzioni di AI e di confrontarci con loro”, sottolinea il Managing Director, Francesco Giannini. “Inoltre, ci permette di entrare a far parte di un network di aziende innovative e di stabilire insieme alcune linee guida e obiettivi comuni da trasformare in azioni pratiche che hanno un impatto positivo sul business”.
La riservatezza dei dati e la loro protezione e immutabilità sono parte del core business di Multiprotexion; perciò l’IT dell’azienda guarda a soluzioni AI dedicate che garantiscono l’applicazione di questi criteri in modo da offrire servizi via via più sofisticati che assicurano sempre la protezione dei dati.
“Le nuove tecnologie creano valore solo se usate in modo integrato, responsabile e finalizzato a produrre nuova conoscenza e a determinare un cambiamento positivo nei comportamenti delle persone”, dichiara Glauco Orlandi, CIO di 3F-Lab, altra azienda entrata in Rethic.AI. “Abbiamo aderito al progetto della rete di Rethic.AI perché rappresenta il nostro pensiero che guida ogni nostra soluzione basata sull’integrazione tra tecnologie immersive, neuroscienze e algoritmi di AI per il people empowerment – nel mondo della formazione, della ricerca applicata e del business”, sottolinea Orlandi. “Ci aspettiamo di poter contribuire a sviluppare una coscienza critica relativamente ad un uso consapevole della tecnologia, avendo attenzione alla natura degli obiettivi che si vogliono perseguire, alle modalità di implementazione e alla trasparenza rispetto all’utilizzo dei dati ottenuti, ai processi decisionali e ai comportamenti degli individui, di qualsiasi settore si tratti”.
Rischi e costi di cui essere consapevoli
Il progetto Rethic.AI include un “AI Act Risk Navigator”, un chatbot creato per sensibilizzare le imprese sull’importanza dei requisiti di compliance previsti dall’AI Act dell’UE. Il suo scopo è fornire una valutazione preliminare dei potenziali rischi legati allo sviluppo o all’implementazione di soluzioni AI.
Cappelletti spiega, infatti, che la corsa all’adozione dell’intelligenza artificiale ha portato molte aziende a ignorare rischi e costi nascosti delle tecnologie emergenti.
“Uno degli elementi più a rischio è il know-how aziendale: l’automatizzazione dei processi interpretativi e decisionali tramite AI, se non gestita correttamente e con lo ‘human-in-the-loop’, può finire per impoverire la knowledge aziendale e compromettere il valore umano nella sua visione strategica e creativa”, afferma Cappelletti. “Inoltre, l’adozione rapida della tecnologia spesso trascura aspetti essenziali come la protezione dei dati, la trasparenza e la responsabilità, esponendo le imprese a significativi rischi reputazionali e normativi”.
Per Viola di The Innovation Group il primo fattore di rischio – e di insuccesso – per le imprese nello sviluppo di applicazioni che utilizzano l’AI è la scarsa qualità dei dati a disposizione. Anche la carenza di comprensione e capacità di definizione di casi d’uso di valore e la mancanza di una governance complessiva dei rischi legati alla sicurezza e alla protezione dei dati influiscono negativamente sul risultato dei progetti.
“Anche se sui costi c’è molta attenzione, spesso resta difficile quantificare la spesa. In particolare, nel caso di applicazioni di GenAI scalate a livello aziendale, c’è un rischio simile a quello che si presenta nel cloud, ovvero un utilizzo non gestito e diffuso delle grandi piattaforme di AI generativa per applicazioni self-service come i chatbot, che rischiano di far perdere di vista la spesa”, evidenzia Viola. “Inoltre, nella maggior parte delle aziende medio-piccole, manca una strutturazione dei processi con un modello operativo di gestione dello sviluppo e dell’utilizzo dell’AI e una governance complessiva dei rischi e delle implicazioni etiche per avere un’intelligenza artificiale responsabile”.
Il ruolo del CIO nel percorso verso un’AI etica
Rethic.AI nasce anche con l’intento di dimostrare che l’implementazione di regole etiche, legali e morali nei sistemi di AI e nelle buone pratiche del loro utilizzo è uno dei campi di ricerca e sviluppo più affascinanti dell’intelligenza contemporanea e che la collaborazione e l’interazione fra mondo della ricerca e mondo industriale è decisiva, come afferma il professore Gianfranco Basti, Presidente dell’Ethical Board di Rethic.AI.
Il percorso verso un’AI etica, però, ha dei tratti in salita.
“Mantenere la centralità dell’essere umano è fondamentale; tuttavia mettere in pratica questo principio e codificarlo nei processi di utilizzo di applicazioni di AI che toccano tutta l’azienda rimane una sfida, se si vogliono utilizzare end-to-end le tecnologie di AI”, evidenzia Viola. “Lo ‘human-in-the-loop’ è una buona intenzione non ancora realizzata”.
L’AI, infatti, può prendere decisioni e agire in modo automatico, senza che ogni volta vi sia la validazione umana. Un’altra preoccupazione, condivisa da molti CIO, è legata all’enorme velocità con cui avvengono lo sviluppo e l’evoluzione tecnologica in questo ambito, per cui mantenere la supervisione e il controllo umani diventa sempre più difficile.
Per questo l’AI etica in azienda richiede la collaborazione di tutti i dirigenti, o CxO, come evidenzia il citato studio di Deloitte. La survey fornisce un’indicazione precisa di quali compiti spettino ai vari manager: se il CEO è chiamato a indicare la vision aziendale e a partecipare attivamente alla definizione dell’AI Strategy a supporto della strategia di business, il CIO dovrà definire una strategia IT per supportare l’implementazione e la gestione applicativa delle soluzioni AI, in linea con l’ecosistema tecnologico aziendale, mentre il Chief Data and Analytics Officer dovrà promuovere la realizzazione di casi d’uso AI allineati con la AI Strategy e la diffusione di una cultura del dato nell’azienda. C’è un ruolo importante anche per il Chief Risk Officer, che dovrà valutare la necessità di aggiornare il framework di Risk Management aziendale per gestire i rischi di adozione dell’intelligenza artificiale. Al Chief Compliance Officer spetta monitorare l’evoluzione normativa e aggiornare il sistema di controlli per la valutazione della conformità regolamentare, mentre il Chief Audit Officer dovrà verificare l’efficacia dei presidi di primo e secondo livello posti in essere per garantire l’affidabilità e la conformità delle soluzioni di AI implementate. Ancora: il Chief Information Security and Data Protection Officer è chiamato ad aggiornare le misure in ambito sicurezza e privacy per proteggere l’organizzazione dalle nuove potenziali minacce introdotte da sistemi di AI, mentre il CHRO, il capo dell’HR, dovrà raccogliere le esigenze di acquisizione di nuove competenze e definire programmi appropriati di formazione e di assunzione in linea con la strategia aziendale sull’AI.
In Italia, dove la stragrande maggioranza delle imprese ha dimensioni medio-piccole, molte di queste figure manageriali non esistono e convergono nel CIO. A maggior ragione, i Direttori dell’IT devono diventare molto consapevoli dei legami tra etica e AI e molto bravi nel dialogo con il CEO. Se le applicazioni AI diventeranno pervasive, il CIO potrà proporre la formazione di un Comitato etico multidisciplinare dedicato alla governance responsabile dell’AI che coinvolge esperti di molteplici discipline. Nello studio di Deloitte le aziende Leader per maturità etica (aziende con un elevato numero di implementazioni AI e che hanno attuato un numero adeguato di presidi a garanzia dei principi etici) usano una metodologia di “AI Ethics by Design”: questo vuol dire che seguono principi etici, requisiti normativi e best practice di MLOps per il deployment e la manutenzione dei modelli di machine learning fin dalla progettazione della soluzione tecnologica e si affidano per la gestione di questi progetti a team eterogenei, dove sono presenti non solo i profili tecnici ma anche quelli con competenze di business, design, privacy, risk, etica e altro ancora.
Read More from This Article: AI ed etica: la priorità è mitigare i rischi e assicurare la compliance
Source: News