Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

AI ed etica: la priorità è mitigare i rischi e assicurare la compliance

Era il novembre del 2021 quando l’Unesco annunciava l’adozione del primo testo mondiale sull’etica dell’intelligenza artificiale, ratificato dai 193 Paesi membri dell’organizzazione delle Nazioni Unite. Le tecnologie dell’AI “possono rendere grandi servizi all’umanità” e “tutti i Paesi possono beneficiarne”, ma “sollevano anche preoccupazioni etiche di fondo”, recitava il testo, raccomandando uno sviluppo e un uso dell’AI fondato sui valori di “rispetto, protezione e promozione dei diritti dell’Uomo, diversità ed inclusione, promozione delle società pacifiche e dell’ambiente”. A tre anni di distanza, nella piena esplosione delle tecnologie di intelligenza artificiale, inclusa quella generativa, le questioni dell’etica restano centrali per un’adozione dell’intelligenza artificiale sostenibile.

Infatti, a settembre di quest’anno, la Commissione europea ha firmato la convenzione quadro del Consiglio d’Europa sull’AI e i diritti umani, la democrazia e lo Stato di diritto, primo strumento internazionale giuridicamente vincolante sull’intelligenza artificiale, pienamente compatibile con il diritto dell’Unione e, in particolare, con l’AI Act. La convenzione include una serie di concetti chiave già presenti nella legge dell’UE sull’argomento, tra cui l’AI antropocentrica, l’approccio basato sul rischio, i principi per un’intelligenza artificiale affidabile (trasparenza, solidità, sicurezza, governance e protezione dei dati), la trasparenza per i contenuti generati dall’AI e nelle sue interazioni con i sistemi e la supervisione umana. La convenzione sarà attuata nell’UE mediante l’AI Act, rafforzandone l’attenzione ai rischi.

Le imprese italiane sono consapevoli degli impatti a tutto campo dell’intelligenza artificiale e della necessità di attuare metodologie e processi per garantire il rispetto dei principi etici nell’AI, anche se la maturità delle strategie non è elevata. La Trustworthy AI Survey 2023 realizzata da Deloitte Italia, in collaborazione con ABI Lab e la Società Italiana per l’Etica dell’Intelligenza Artificiale SIpEIA, rivela che le aziende hanno investito soprattutto nel garantire la privacy (58%) e la sicurezza (52%) e molto meno nella trasparenza, nella spiegabilità (19%) e nella fairness (13%) dei sistemi AI. Tuttavia, nel 2024, l’avvento della GenAI e l’entrata in vigore dell’AI Act hanno contribuito a creare un approccio più strutturato, soprattutto nelle grandi aziende.

“Siamo di fronte a un importante cambio di paradigma, come mostrano diverse indagini, inclusa una survey condotta da The Innovation Group su un campione di 150 imprese italiane nel 2024”, evidenzia Ezio Viola, co-founder di TIG-The Innovation Group. “Il 46% delle aziende italiane afferma di voler investire nei prossimi 12 mesi in GenAI. La maggior parte (39%) si trova in una fase di studio, ma non mancano (è il 33% dei rispondenti) casi d’uso già realizzati, anche se non sempre scalati a livello enterprise. Siamo agli inizi, ma nelle grandi aziende c’è la consapevolezza degli impatti etici e della sostenibilità dell’intelligenza artificiale, in particolare dopo l’approvazione dell’AI Act europeo e in presenza di strategie e azioni legate, in generale, alla sostenibilità aziendale”.

In Italia una rete di imprese per l’adozione etica dell’AI

In generale, le aziende italiane partono dalla considerazione delle esigenze aziendali per l’introduzione dell’AI e della GenAI, mentre la sicurezza, la privacy o la trasparenza vengono dopo. Eppure la gestione dei rischi e degli impatti etici dovrebbero salire allo stesso livello delle considerazioni tecnologiche.

“Le organizzazioni si trovano sempre più di fronte a un bivio: mettere al centro la produttività a discapito delle persone, o trovare il giusto equilibrio per integrare soluzioni AI al fine di potenziare il proprio capitale umano, senza compromettere la dignità dei lavoratori e mantenendo alti standard di compliance. Riteniamo che la seconda strada sia l’unica perseguibile per una crescita aziendale sostenibile, ma senz’altro anche la più complessa”, afferma Andrea Cappelletti, Direttore Business Unit Digital Transformation & Hyperautomation di S2E, società di consulenza nel campo della business technology.

S2E si è fatta promotrice di Rethic.AI, la prima rete d’imprese in Italia che riunisce aziende impegnate a promuovere un’adozione etica, sicura e responsabile dell’intelligenza artificiale. L’iniziativa vuole rispondere alle sfide etiche e normative poste dalla tecnologia, con l’obiettivo di garantire trasparenza, conformità e sostenibilità, valorizzando il capitale umano e dando un approccio antropocentrico all’AI.

“Il progetto Rethic.AI è nato dall’ascolto diretto delle aziende e dal loro forte desiderio di innovazione, che si scontra però con la mancanza di punti di riferimento concreti per navigare la complessità di un’adozione dell’AI etica e sostenibile”, afferma Cappelletti.

La rete di Rethic.AI agirà promuovendo iniziative di networking e definizione di best practice e benchmark per la governance dei processi e dei dati legati all’impatto etico dell’AI. Verranno organizzati webinar, eventi, tavole rotonde e attività formative sia con le imprese, sia con il mondo accademico e istituzionale.

Progetti di AI antropocentrica

S2E ha invitato tutte le aziende a diventare “pionieri etici di Rethic.AI”, partecipando attivamente a questo movimento per un’adozione responsabile dell’intelligenza artificiale. Non ci sono limiti di dimensioni o geografia, purché vi sia un impegno condiviso verso pratiche etiche, tenendo fermi sette principi chiave: centralità della persona, sostenibilità e responsabilità sociale, trasparenza e compliance, equità e non discriminazione, innovazione Made in Italy, formazione delle competenze e sicurezza e privacy dei dati.

Tra le aziende già nella rete c’è Ecopack Group (specializzata nella produzione di stampi da cottura e imballi specifici per l’industria dolciaria), il cui CIO, Marco Casalone, racconta: “Ciè sembrata una buona occasione per entrare a far parte di un network di aziende con obiettivi affini ai nostri sull’adozione dell’AI nel settore industriale”.

Ecopack già usa l’AI come supporto per le attività quotidiane degli operatori. In particolare, il CIO sta sviluppando due progetti paralleli: uno dedicato alla documentazione di qualità per gli operatori delle macchine, che tramite un bot possono richiedere informazioni o chiarire dubbi su questioni che prima avrebbero dovuto cercare nelle librerie; l’altro per la gestione dei dati strutturati e che dà supporto al personale degli uffici, riducendo i tempi di ricerca. Anche in questo caso, tramite un bot, gli operatori possono interrogare i dati direttamente dal software gestionale in forma discorsiva, simulando l’interazione con una sorta di collega virtuale, pronto a fornire le informazioni necessarie al momento giusto.

“In questa fase iniziale, non abbiamo riscontrato problematiche dirette legate all’uso dell’AI”, evidenzia Casalone. “Tuttavia, prestiamo particolare attenzione a evitare qualsiasi senso di alienazione tra i dipendenti, salvaguardando il benessere organizzativo. A questo scopo, stiamo predisponendo dei mini-corsi formativi sull’AI per rendere tutti i dipendenti partecipi del cambiamento, dei benefici che l’AI può portare e, allo stesso tempo, per tenerli aggiornati sull’avanzamento dei progetti in corso”.

Anche l’azienda della sicurezza e della logistica Multiprotexion ha aderito a Rethic.AI. “Ci è sembrata una proposta interessante perché ci consente di entrare in contatto con altre realtà che hanno adottato soluzioni di AI e di confrontarci con loro”, sottolinea il Managing Director, Francesco Giannini. “Inoltre, ci permette di entrare a far parte di un network di aziende innovative e di stabilire insieme alcune linee guida e obiettivi comuni da trasformare in azioni pratiche che hanno un impatto positivo sul business”.

La riservatezza dei dati e la loro protezione e immutabilità sono parte del core business di Multiprotexion; perciò l’IT dell’azienda guarda a soluzioni AI dedicate che garantiscono l’applicazione di questi criteri in modo da offrire servizi via via più sofisticati che assicurano sempre la protezione dei dati.

“Le nuove tecnologie creano valore solo se usate in modo integrato, responsabile e finalizzato a produrre nuova conoscenza e a determinare un cambiamento positivo nei comportamenti delle persone”, dichiara Glauco Orlandi, CIO di 3F-Lab, altra azienda entrata in Rethic.AI. “Abbiamo aderito al progetto della rete di Rethic.AI perché rappresenta il nostro pensiero che guida ogni nostra soluzione basata sull’integrazione tra tecnologie immersive, neuroscienze e algoritmi di AI per il people empowerment – nel mondo della formazione, della ricerca applicata e del business”, sottolinea Orlandi. “Ci aspettiamo di poter contribuire a sviluppare una coscienza critica relativamente ad un uso consapevole della tecnologia, avendo attenzione alla natura degli obiettivi che si vogliono perseguire, alle modalità di implementazione e alla trasparenza rispetto all’utilizzo dei dati ottenuti, ai processi decisionali e ai comportamenti degli individui, di qualsiasi settore si tratti”.

Rischi e costi di cui essere consapevoli

Il progetto Rethic.AI include un “AI Act Risk Navigator”, un chatbot creato per sensibilizzare le imprese sull’importanza dei requisiti di compliance previsti dall’AI Act dell’UE. Il suo scopo è fornire una valutazione preliminare dei potenziali rischi legati allo sviluppo o all’implementazione di soluzioni AI.

Cappelletti spiega, infatti, che la corsa all’adozione dell’intelligenza artificiale ha portato molte aziende a ignorare rischi e costi nascosti delle tecnologie emergenti.

“Uno degli elementi più a rischio è il know-how aziendale: l’automatizzazione dei processi interpretativi e decisionali tramite AI, se non gestita correttamente e con lo ‘human-in-the-loop’, può finire per impoverire la knowledge aziendale e compromettere il valore umano nella sua visione strategica e creativa”, afferma Cappelletti. “Inoltre, l’adozione rapida della tecnologia spesso trascura aspetti essenziali come la protezione dei dati, la trasparenza e la responsabilità, esponendo le imprese a significativi rischi reputazionali e normativi”.

Per Viola di The Innovation Group il primo fattore di rischio – e di insuccesso – per le imprese nello sviluppo di applicazioni che utilizzano l’AI è la scarsa qualità dei dati a disposizione. Anche la carenza di comprensione e capacità di definizione di casi d’uso di valore e la mancanza di una governance complessiva dei rischi legati alla sicurezza e alla protezione dei dati influiscono negativamente sul risultato dei progetti.

“Anche se sui costi c’è molta attenzione, spesso resta difficile quantificare la spesa. In particolare, nel caso di applicazioni di GenAI scalate a livello aziendale, c’è un rischio simile a quello che si presenta nel cloud, ovvero un utilizzo non gestito e diffuso delle grandi piattaforme di AI generativa per applicazioni self-service come i chatbot, che rischiano di far perdere di vista la spesa”, evidenzia Viola. “Inoltre, nella maggior parte delle aziende medio-piccole, manca una strutturazione dei processi con un modello operativo di gestione dello sviluppo e dell’utilizzo dell’AI e una governance complessiva dei rischi e delle implicazioni etiche per avere un’intelligenza artificiale responsabile”.

Il ruolo del CIO nel percorso verso un’AI etica

Rethic.AI nasce anche con l’intento di dimostrare che l’implementazione di regole etiche, legali e morali nei sistemi di AI e nelle buone pratiche del loro utilizzo è uno dei campi di ricerca e sviluppo più affascinanti dell’intelligenza contemporanea e che la collaborazione e l’interazione fra mondo della ricerca e mondo industriale è decisiva, come afferma il professore Gianfranco Basti, Presidente dell’Ethical Board di Rethic.AI.

Il percorso verso un’AI etica, però, ha dei tratti in salita.

“Mantenere la centralità dell’essere umano è fondamentale; tuttavia mettere in pratica questo principio e codificarlo nei processi di utilizzo di applicazioni di AI che toccano tutta l’azienda rimane una sfida, se si vogliono utilizzare end-to-end le tecnologie di AI”, evidenzia Viola. “Lo ‘human-in-the-loop’ è una buona intenzione non ancora realizzata”.

L’AI, infatti, può prendere decisioni e agire in modo automatico, senza che ogni volta vi sia la validazione umana. Un’altra preoccupazione, condivisa da molti CIO, è legata all’enorme velocità con cui avvengono lo sviluppo e l’evoluzione tecnologica in questo ambito, per cui mantenere la supervisione e il controllo umani diventa sempre più difficile.

Per questo l’AI etica in azienda richiede la collaborazione di tutti i dirigenti, o CxO, come evidenzia il citato studio di Deloitte. La survey fornisce un’indicazione precisa di quali compiti spettino ai vari manager: se il CEO è chiamato a indicare la vision aziendale e a partecipare attivamente alla definizione dell’AI Strategy a supporto della strategia di business, il CIO dovrà definire una strategia IT per supportare l’implementazione e la gestione applicativa delle soluzioni AI, in linea con l’ecosistema tecnologico aziendale, mentre il Chief Data and Analytics Officer dovrà promuovere la realizzazione di casi d’uso AI allineati con la AI Strategy e la diffusione di una cultura del dato nell’azienda. C’è un ruolo importante anche per il Chief Risk Officer, che dovrà valutare la necessità di aggiornare il framework di Risk Management aziendale per gestire i rischi di adozione dell’intelligenza artificiale. Al Chief Compliance Officer spetta monitorare l’evoluzione normativa e aggiornare il sistema di controlli per la valutazione della conformità regolamentare, mentre il Chief Audit Officer dovrà verificare l’efficacia dei presidi di primo e secondo livello posti in essere per garantire l’affidabilità e la conformità delle soluzioni di AI implementate. Ancora: il Chief Information Security and Data Protection Officer è chiamato ad aggiornare le misure in ambito sicurezza e privacy per proteggere l’organizzazione dalle nuove potenziali minacce introdotte da sistemi di AI, mentre il CHRO, il capo dell’HR, dovrà raccogliere le esigenze di acquisizione di nuove competenze e definire programmi appropriati di formazione e di assunzione in linea con la strategia aziendale sull’AI.

In Italia, dove la stragrande maggioranza delle imprese ha dimensioni medio-piccole, molte di queste figure manageriali non esistono e convergono nel CIO. A maggior ragione, i Direttori dell’IT devono diventare molto consapevoli dei legami tra etica e AI e molto bravi nel dialogo con il CEO. Se le applicazioni AI diventeranno pervasive, il CIO potrà proporre la formazione di un Comitato etico multidisciplinare dedicato alla governance responsabile dell’AI che coinvolge esperti di molteplici discipline. Nello studio di Deloitte le aziende Leader per maturità etica (aziende con un elevato numero di implementazioni AI e che hanno attuato un numero adeguato di presidi a garanzia dei principi etici) usano una metodologia di “AI Ethics by Design”: questo vuol dire che seguono principi etici, requisiti normativi e best practice di MLOps per il deployment e la manutenzione dei modelli di machine learning fin dalla progettazione della soluzione tecnologica e si affidano per la gestione di questi progetti a team eterogenei, dove sono presenti non solo i profili tecnici ma anche quelli con competenze di business, design, privacy, risk, etica e altro ancora.  


Read More from This Article: AI ed etica: la priorità è mitigare i rischi e assicurare la compliance
Source: News

Category: NewsNovember 26, 2024
Tags: art

Post navigation

PreviousPrevious post:“업무 방식이 달라진다”··· AI PC가 가져올 실질적 변화는?NextNext post:“국내 포털 중 최초”···이스트에이드, 줌에 AI 검색 요약 기능 지원

Related posts

Barb Wixom and MIT CISR on managing data like a product
May 30, 2025
Avery Dennison takes culture-first approach to AI transformation
May 30, 2025
The agentic AI assist Stanford University cancer care staff needed
May 30, 2025
Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
May 30, 2025
“AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
May 30, 2025
“ROI는 어디에?” AI 도입을 재고하게 만드는 실패 사례
May 30, 2025
Recent Posts
  • Barb Wixom and MIT CISR on managing data like a product
  • Avery Dennison takes culture-first approach to AI transformation
  • The agentic AI assist Stanford University cancer care staff needed
  • Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
  • “AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.