Le capacità dell’intelligenza artificiale aprono le porte a una nuova era per l’efficienza in azienda. L’arrivo dell’IA generativa, poi, è una promessa senza precedenti: ChatGPT ha raggiunto il traguardo di 100 milioni di utenti in appena due mesi (analisi di Ubs su dati di Similarweb; il World Wide Web, negli Anni ’90, ha impiegato sette anni). Per i CIO, tuttavia, implementare l’IA non è così immediato.
“L’intelligenza artificiale è una rivoluzione, perché rappresenta una general purpose technology: la possiamo paragonare all’introduzione dell’elettricità e alla nascita di Internet. Senza l’IA, le nostre imprese non potranno aumentare la loro produttività, ridurre i costi ed essere competitive”, afferma Emanuela Girardi, fondatrice e presidente di Pop AI (Popular Artificial Intelligence), Associazione no-profit la cui mission è quella di spiegare alle persone che cosa sono le tecnologie di intelligenza artificiale e quale impatto hanno sulla vita di tutti i giorni.
Ma, per usare l’IA, servono alcune condizioni sine qua non. Intanto, le competenze, “perché l’intelligenza artificiale ci chiede di imparare a svolgere lavori nuovi o a lavorare in modo diverso”, evidenzia Girardi. Infatti, secondo il “Report Imprese e Ict 2023” di Istat, la mancanza di competenze è il primo freno all’adozione delle tecnologie IA in Italia: il 55,1% delle imprese che hanno preso in considerazione il suo utilizzo senza poi adottarla ha rinunciato per carenza di skill e comprensione delle possibilità per il proprio business.
“La svolta sta nel capire che cosa la propria azienda può fare, in modo migliore, grazie all’intelligenza artificiale”, sottolinea Girardi, che ha anche fatto parte del gruppo di esperti di IA del Ministero dello Sviluppo Economico, che, nel 2020, ha elaborato la strategia nazionale italiana per questa tecnologia.
Se, poi, ci si rivolge all’intelligenza artificiale generativa (Gen AI), la profonda conoscenza dell’ambito di applicazione è indispensabile, visto il margine di errore (le cosiddette allucinazioni).
Un altro elemento che preoccupa i CIO è quello dell’explainability: possiamo completamente spiegare il perché di un risultato del modello IA e fidarci? Altrettanto importante (e forse più trascurata) è la questione dei big data che servono per addestrare i modelli e il costo connesso. Infatti, nel report di Istat il secondo e terzo maggiore ostacolo all’adozione dell’intelligenza artificiale nelle imprese sono i costi troppo alti (49,6%) e l’indisponibilità o la scarsa qualità dei dati necessari (45,5%).
Quante imprese in Italia usano l’intelligenza artificiale
Ovviamente le attività relative alle tecnologie di IA e analisi dei dati si riscontrano soprattutto nelle imprese con elevati gradi di digitalizzazione. Secondo Istat, nel 2023, il 5% delle imprese con almeno 10 addetti ha utilizzato almeno una delle sette tecnologie di intelligenza artificiale analizzate (nel 2022 erano il 6,2%). Tra le medie imprese (50-99 addetti), il 5,6% ne ha utilizzata almeno una (9,4% nel 2022). Tra le grandi, è rimasta stabile la quota di circa il 24% del totale.
Le sette tecnologie IA considerate da Istat (in linea con Eurostat) sono quelle usate per analizzare documenti di testo (come il text mining), per convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale), per generare linguaggio scritto o parlato (generazione del linguaggio naturale, sintesi vocale), per identificare oggetti o persone sulla base di immagini o video (riconoscimento, elaborazione delle immagini con la computer vision), per l’analisi dei dati attraverso l’apprendimento automatico (per esempio, machine learning, deep learning, reti neurali), per automatizzare i flussi di lavoro o supportare nel processo decisionale (process automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane, ecc.), e per consentire il movimento fisico delle macchine tramite decisioni autonome basate sull’osservazione dell’ambiente circostante (robot o droni autonomi, veicoli a guida autonoma).
Tra le imprese che utilizzano l’intelligenza artificiale, le tecnologie più comuni riguardano l’automatizzazione dei flussi di lavoro attraverso software robot (40,1%), l’estrazione di conoscenza e informazione da documenti di testo (39,3%) e la conversione della lingua parlata in formati leggibili da dispositivi informatici attraverso tecnologie di riconoscimento vocale (31,0%). L’analisi dei dati attraverso l’apprendimento automatico (machine learning, deep learning, reti neurali) è la tecnologia maggiormente utilizzata dalle grandi imprese che utilizzano l’IA (51,9%).
Facciamo un passo indietro: l’intelligenza artificiale e il machine learning
In effetti, ciò che comunemente viene identificato con IA è basato sul processo di apprendimento ed è quindi, fondamentalmente, machine learning (ML): l’intelligenza artificiale è, invece, il grande cappello sotto cui ricadono altre tecnologie correlate, come evidenzia Vincenzo Laveglia Ph.D. (con tesi di ricerca sulle reti neurali dinamiche) e Tecnologo presso l’università di Firenze.
“L’IA e il ML esistono da tempo, ma è solo negli anni più recenti che si sono aperte le applicazioni su larga scala anche per le imprese, perché si sono verificate alcune condizioni indispensabili: la grande disponibilità di dati online, le schede grafiche utilizzate per il processo di training e le librerie di software disponibili gratuitamente, che hanno reso possibile per molti, al di fuori dei laboratori di ricerca, scrivere codice per il machine learning”, spiega Laveglia. “I sistemi ML hanno vissuto un boom ulteriore con l’introduzione di particolari modelli di machine learning, anzi, di reti neurali: i transformer,utilizzabili anche come sistemi generativi, come è GPT. La peculiarità dei transformer è che rendono possibile costruire (e addestrare) modelli neurali molto grandi (profondi, in realtà, da cui, per l’appunto, deep learning). E si è visto che modelli molto grandi, con miliardi e miliardi di parametri, riescono a fare cose impensabili fino a qualche anno fa”.
Le reti neurali sono il modello di machine learning più utilizzato oggi. Si tratta di oggetti matematici composti da migliaia di parametri. Questi parametri vengono opportunamente valorizzati durante il processo di apprendimento, al termine del quale il modello di ML sarà in grado di compiere in modo automatico i compiti per i quali è stato istruito.
Laveglia evidenzia, tuttavia, un aspetto: nel processo di addestramento dei modelli IA l’essere umano dà alla macchina le indicazioni per svolgere un certo compito al suo posto, ma ciò che, in effetti, viene insegnato al sistema non è tutto quello che deve fare, bensì i confini entro cui deve farlo, forzandolo a non sbagliare.
“Ciò che indichiamo al modello è che alcuni risultati non sono coerenti, e lo correggiamo finché non è in grado di muoversi entro i parametri che gli abbiamo dato”, spiega il ricercatore.
Questo implica che, alla fine, non sarà possibile spiegare, passaggio per passaggio, perché la macchina offre un certo risultato. Dobbiamo fidarci delle istruzioni che le abbiamo dato: se sono corrette, dovrà esserlo anche l’output, e questo è vero soprattutto nei modelli molto grandi addestrati con tantissimi dati.
“Il margine di errore dipende da come viene fatto l’addestramento. Ci sono regole da seguire per il training e ci sono modelli migliori di altri”, precisa Laveglia.
Intelligenza artificiale in azienda: il primo punto è il trust
Diversi CIO sottolineano, infatti, che l’IA fornisce un suggerimento finale come esito di un “ragionamento” della rete neurale e, per il supervisore umano, non è sempre facile capire perché sia stato dato più peso a un fattore o a un altro. Ed è anche per questo che le aziende, anche grandi, spesso restano nella fase sperimentazione e prevedono l’affiancamento dell’essere umano al software.
“Mentre nella business intelligence la persona decide prima quale sarà la relazione causa-effetto tra i dati e la decisione finale, quindi, la si può considerare al cento per cento spiegabile, nell’IA la decisione è solo parzialmente informata, perché non si riesce a controllare del tutto la relazione causa-effetto. Di fatto si perde un po’ il controllo”, osserva Alessandro Di Maio, CIO di Farvima Medicinali, GDO del settore farmaceutico. “Per questo noi procediamo per gradi, con piccole implementazioni in cui verifichiamo l’affidabilità del sistema. Tuttavia, in generale, se l’IA ha lavorato sui big data è difficile che il risultato non sia affidabile”.
Il nodo è nella grande quantità di dati costantemente aggiornati, perché così il sistema si auto-alimenta, si corregge e si consolida.
Che cosa posso fare con l’IA? Molto più che analytics e business intelligence
Istat rileva che gli ambiti aziendali in cui vengono più spesso adottati sistemi di intelligenza artificiale sono relativi a processi di produzione, per esempio nel caso della manutenzione predittiva o del controllo qualità nella produzione (39,0%, fino al 52,5% nel settore manifatturiero), alla funzione di marketing o vendite, per esempio nelle funzioni di assistenza ai clienti o campagne promozionali personalizzate (33,1%, al 41,3% nel settore dei servizi), alla sicurezza informatica (23,7%, al 50,6% nel settore dell’energia) e alle attività di ricerca e sviluppo o innovazione per analizzare dati, sviluppare un prodotto o un servizio nuovo o significativamente migliorato (21,1%).
Molte imprese stanno sperimentando in questa direzione, riferisce Girardi. “L’IA si può usare nel sistema di controllo dei costi per l’acquisto delle materie prime, oppure per ottimizzare domanda e acquisti migliorando la gestione finanziaria e la cassa o, ancora, per la manutenzione predittiva degli impianti per evitare guasti e fermi, e per il controllo di qualità con la computer vision. Molte imprese la stanno applicando al servizio clienti con i chatbot o con la GenAI per il marketing”, evidenzia l’esperta.
Passare dalle sperimentazioni ai progetti concreti con l’IA implica, però, il fatto di avere “enormi competenze, non solo informatiche ma anche matematico-statistiche, e team dedicati”, secondo il CIO Di Maio.
Infatti, Farvima Medicinali già dall’anno scorso ha iniziato a lavorare su soluzioni di intelligenza artificiale insieme a un partner, un gruppo che ha, tra le sue affiliate, una società con competenze IT e IA.
Un primo sistema basato sull’IA sviluppato da Farvima (attualmente in fase di sperimentazione) suggerisce il pricing corretto per raggiungere l’obiettivo di margine sulle vendite sia in assoluto che in percentuale, complessivamente o per singola linea di prodotto. Questo sistema mette insieme e valuta i dati storici dell’andamento dei prodotti sul mercato e delle variazioni di prezzo e come risultato fornisce, per ogni articolo, un suggerimento di prezzo per la messa in vendita in un dato momento, in modo che il totale delle vendite permetta di raggiungere il margine indicato nell’obiettivo.
“Prima avevamo un sistema che usava tecniche di analytics, ma il sistema IA è molto più evoluto, perché si basa su molti più dati ottenuti con l’analisi”, evidenzia Di Maio. “Ogni dato va gestito con funzioni matematiche diverse e le variabili considerate sono più numerose, anche perché ogni articolo ha una gestione complessiva che costa e non dipende solo dai volumi”.
Come cambiano i chatbot
Un secondo prodotto IA di Farvima sviluppato col partner viene applicatoall’ottimizzazione del magazzino per evitare la rottura di stock. “L’ottimizzazione di un processo è una tipica area che trae vantaggio dall’intelligenza artificiale”, evidenzia Di Maio. “Il nostroobiettivo è provare a prevedere quanto venderemo usando un set di dati sia storici sia di contesto. Per esempio, date le condizioni meteo e la diffusione di una certa patologia in una precisa regione, l’IA ci aiuta a prevedere che tra un certo numero di giorni dovremo distribuire un certo numero di un preciso medicinale e ci indica quando e dove fare distribuzione. Oppure, ci evita di saturare il mercato nel momento in cui non è prevista una forte domanda”.
L’area della customer experience è un’altra applicazione naturale dell’intelligenza artificiale. Qui Farvima – sempre con un partner – sta integrando un chatbot rivolto al suo utente finale (il farmacista o il medico) per guidarlo in modo automatizzato verso operazioni quali il recupero di una fattura o di un foglietto illustrativo. Il chatbot capisce che l’utente ha chiesto un documento, lo cerca, lo collega al suo profilo e glielo manda via email o con messaggio sul dispositivo mobile. La prossima evoluzione sarà il riconoscimento vocale: l’utente chiamerà un numero al quale risponderà un bot in grado di capire ed evadere la richiesta.
“Il riconoscimento vocale di per sé è una tecnologia consolidata, ma qui occorre un passo in avanti: l’IA deve collegare la conversazione col cliente ad un’azione e il compito è tecnicamente diverso dal programmare l’intelligenza artificiale a compiere un’azione (come il download e l’invio di un documento)”, spiega Di Maio.
La base imprescindibile restano i big data, perché il machine learning ha bisogno di dataset molto estesi. Di Maio di Farvima procede svolgendo internamente le operazioni di data mining e normalizzazione dei flussi – ovvero, l’attività ETL (Extract-Transform-Load) – dal proprio database, mentre la parte vera e propria di IA, che usa il machine learning, il deep learning e le reti neurali per arrivare dai dati alla risposta, viene affidata al fornitore esterno.
Questa modalità che fa leva sulle partnership sta diventando comune nelle imprese italiane.
Le partnership e l’open innovation
Nel settore finanziario e assicurativo, per esempio, i modelli di ML, addestrati sui dati interni (e, spesso, anche su dataset forniti dai partner tecnologici), generano suggerimenti per le attività di vendita e consulenza tramite la product recommendation. Change Capital, che è un aggregatore digitale di soluzioni finanziarie per le Pmi, ha implementato un modello di apprendimento automatico per migliorare, in particolare, la gestione di due aree del suo business: la selezione dei prodotti e l’identificazione dei clienti. Il modello ML è stato creato dal suo partner tecnologico MetriksAI sui dati delle pratiche storiche di Change Capital e ha permesso un incremento del 27% del conversion rate sulle pratiche lavorate dagli account manager della fintech grazie alle raccomandazioni automatizzate sulle next best action, come spiega il CTO di Change Capital, Alessio Donati. A loro volta, questi prodotti per i suggerimenti alle attività di cross-selling e up-selling degli advisor hanno attratto l’interesse di istituti bancari tradizionali, come Banca Popolare di Cortona e Banca Valsabbina, che hanno delle partnership industriali con Change Capital, ne possiedono, rispettivamente, il 9,9% e il 9%, e ne implementano i prodotti tecnologici.
“I sistemi di raccomandazione, che automatizzano processi in molti casi ancora svolti manualmente, non rappresentano un semplice trend, bensì un cambio strategico nell’interazione con i clienti”, dichiara Donati. “Il ML ci ha portato risultati significativi in termini di business, perché gli algoritmi suggeriscono ai nostri advisor i prodotti da vendere alle aziende in base all’analisi dei dati. Un altro campo di applicazione, ovviamente, è quello della gestione del credit risk, sempre basato sull’analisi di dati storici”.
Perché l’IA Generativa è così “importante”?
I prodotti di GenAI rappresentano un ulteriore cambiamento nel panorama dell’intelligenza artificiale, sia dal punto di vista tecnologico che della cultura aziendale e della formazione professionale. Non dimentichiamo quel dato riportato all’inizio: ChatGPT ha conquistato 100 milioni di utenti in due mesi dal lancio e ciò è stato possibile grazie all’entusiasmo dell’adozione consumer, proprio come ha fatto il telefono cellulare, ma impiegandoci 16 anni (il telefono fisso 75 anni). Si tratta di un fenomeno spesso definito come democratizzazione dell’IT, per cui una tecnologia diventa strumento comune non solo sul lavoro, ma nella vita personale. Lo stesso telefono cellulare è stato, anni fa, protagonista di un trend simile ribattezzato Byod (Bring-your-own-device): le persone usavano il dispositivo personale (smartphone, tablet o laptop) pure in ufficio, con grande produttività e flessibilità, ma anche diversi grattacapi per l’IT (di sicurezza dei dati e gestione degli accessi).
Da questo punto di vista, la GenAI ha enormi potenzialità, evidenzia Girardi: le persone la usano già a livello consumer e molti progetti “sono facilmente integrabili in azienda e hanno un ritorno importante”.
Secondo Girardi, nell’intelligenza artificiale generativa un buon modo di procedere per i CIO è partire con un piccolo progetto (per esempio, come assistente nella scrittura dei contratti,nei messaggi dimarketing personalizzati, nel customer service o nella generazione di nuove idee di prodotto e design), dimostrare i benefici concreti che si ottengono e poi, eventualmente, estendere la sperimentazione.
“L’IA generativa è importante perché permette di sviluppare piccoli progetti con impatto in una/due funzioni e, da lì, crescere, diffondendo intanto la cultura dell’IA, mostrandone i rischi e i benefici”, sottolinea l’esperta.
Secondo Laveglia, “Quello che può accadere con la democratizzazione dell’IT è che, con i prodotti basati sui Large Language Model (LLM) scaricabili da Internet, questi modelli saranno usati facilmente dalle persone in azienda anche per singoli compiti del loro lavoro”.
Si tratta di task – come la generazione di testi e immagini – piccoli e insignificanti, se rapportati alle enormi capacità di questi modelli, ma che danno un significativo supporto al lavoro quotidiano, in modo accessibile e veloce anche se, non privo di rischi e costi.
L’explainability e gli altri rischi
Nella GenAI il rischio è noto a tutti: le hallucination, allucinazioni. I risultati completamente sbagliati sono possibili anche quando per l’addestramento si usano i dati interni.Al momento, il margine di inaffidabilità va dal 3% all’8% a seconda dei modelli utilizzati (ma dipende da chi effettua i test: alcune imprese riferiscono un range dal 5% al 27%). Per questo va usata in un dominio in cui la persona è competente: occorre sempre la verifica umana dell’output.
“L’IA non è una tecnologia completamente matura. Ci sono aspetti non ancora risolti e che, probabilmente, resterà difficile risolvere. Tra questi, il maggiore è l’explainability”, evidenzia Laveglia. “Per questo oggi è necessario porre dei vincoli agli impieghi di questi sistemi”.
“Gli elementi oscuri ci sono”, anche per Girardi, “e, infatti, l’AI Act europeo prevede, per i sistemi ad alto rischio, una certificazione basata su standard che l’Ue sta mettendo a punto e che definiranno la trustworthy AI (l’affidabilità dell’IA). Questi controlli aiuteranno a ridurre i rischi. Intanto la ricerca continua a investire per risolvere il nodo della spiegabilità e diverse startup stanno sviluppando dei framework per l’explainable AI”.
Anche le questioni di privacy e sicurezza sono aspetti che i CIO dovranno valutare per gli impatti sulla compliance e le attività di risk management. Come ogni tecnologia, anche i sistemi IA hanno delle falle e, teoricamente (ma non impossibile), un hacker potrebbe manomettere il modello e mandare in tilt la rete neurale, che a quel punto darebbe dei risultati incoerenti, se non tossici.
Tuttavia, non è qui che il CIO deve fissare lo sguardo. “Trattandosi di strumenti molto complessi occorre una policy per gestirli. Ma l’attenzione tende a rivolgersi più verso i timori che in direzione delle grandi applicazioni industriali”, osserva Girardi. Invece, prosegue l’esperta, “La paura non è giustificata: l’IA è un insieme di strumenti sviluppati dall’essere umano e tali restano. Sì, prendono le decisioni in modo autonomo, ma è l’essere umano ad addestrare i modelli e a decidere le finalità. I rischi sono nella catena del valore: se l’addestramento dell’intelligenza artificiale usa dati non corretti o discriminatori, se i test sono condotti in modo inadeguato o se gli utilizzi delle persone hanno finalità malevole, allora l’IA è nociva. Ma lo è per responsabilità dell’uomo”.
Come procedere? I quattro passi fondamentali
In un progetto di intelligenza artificiale ci sono vari elementi coinvolti: per questo le imprese sono caute e prevedono tanti test di validazione. Il primissimo punto di partenza, però, secondo Laveglia, è “ontologico”: capire il problema e se è risolvibile.
“Se non può risolverlo l’essere umano, difficilmente potrà risolverlo la macchina: il modello non fa magie, ma automatizza dei compiti”, afferma il ricercatore.
Poi ci vogliono i dati rilevanti per l’attività che si intende svolgere, e ciò si ottiene con il feature engineering, o estrazione del contenuto informativo dai dati grezzi per supportare l’addestramento. Dai dati dipende l’addestramento che possiamo fare e il modello che useremo. Ovviamente, più il problema è complesso più servono dati.
Infine, va sviluppata l’architettura di ML, per esempio il tipo di rete (o reti) neurale e quindi definirne la struttura (numero di strati, funzioni di attivazione eccetera).
Non c’è una formula uguale per tutti, ma, in linea generale, Laveglia suggerisce quattro passi fondamentali: analizzare il problema, raccogliere i dati, sviluppare il Proof of Concept (PoC) e, se questo è valido, procedere con la messa in opera, ovvero estendere il dataset, creare il modello più grande e perfezionarlo.
E ora la grande domanda: quanto mi costa l’IA?
Ed eccoci ora alla domanda che il finance e l’AD chiederanno sempre al CIO: mitigati i rischi e individuate le aree di applicazione più vantaggiose, quanto costa addestrare e implementare i modelli IA? Ci sono i costi dell’energia, ma c’è un altro costo che spesso viene dimenticato: i dati.
“Non è la tecnologia di per sé a costare”, evidenzia Laveglia. “I modelli più piccoli sono accessibili anche alle piccole imprese, mentre quelli molto grandi, ovviamente, richiedono investimenti importanti. Ma non è il lavoro ingegneristico di sviluppo del modello a pesare sulle finanze, bensì l’attività di raccolta, preparazione ed etichettatura dei dati. La fase di addestramento del modello è onerosa e questo aspetto non va sottovalutato, anche se, per abbattere i costi, si può fare il training con un partner e sul cloud; poi, una volta addestrato il modello, questo si può anche spostare su un server proprietario”.
Ma, anche qui ci sono delle distinzioni da fare: i prodotti off-the-shelf e as-a-service rendono le innovazioni più accessibili, ma a scapito delle personalizzazioni. Se un’azienda ha bisogno di portare l’IA su compiti specifici, occorrerà o lo sviluppo interno del modello o un’attività di fine-tuning su un modello di mercato.
“Anche sulla preparazione dei dati si può usare qualche scorciatoia, per esempio accedendo ai dataset online che, per tanti compiti, rappresentano un buon punto di partenza”, continua Laveglia. “Ma, se l’impresa ha delle necessità specifiche, occorre un dataset proprietario unito al fine-tuning su modelli grandi, con tanti Giga di Ram e schede grafiche. E questo significa che le necessità computazionali saranno molto maggiori”.
Insomma, si usa tantissima energia elettrica, anche con i modelli pre-addestrati e i LLM scaricati da Internet.
Il next level della competitività è nei dati e nelle persone
In definitiva, se un’azienda vuole essere davvero competitiva, non può trarre vantaggio dai dataset che si trovano sul mercato: “la differenza è nel dataset supervisionato, in-house, ovvero con dati privati e non aperti a tutti”, dice Laveglia.
“La base dei sistemi ML sono i big data e i data lake”, evidenzia anche Donati di Change Capital: “la capacità di apprendimento automatico si nutre di volumi molto grandi di dati non strutturati e di natura disparata da cui l’algoritmo ricava analisi e raccomandazioni”.
Lo stesso discorso vale per le competenze: se si usano modelli pre-addestrati e as-a-service non è necessario possedere figure specialistiche. Ma, per un’azienda che si basa sull’IT per generare valore, le competenze interne sull’IA sono un must.
Per questo è importante anche far passare un chiaro messaggio in azienda: l’intelligenza artificiale non sostituisce le persone e il loro lavoro, ma ne aumenta le capacità e le possibilità.
Artificial Intelligence, Generative AI
Read More from This Article: Intelligenza artificiale e gen AI: i quattro elementi per passare al “next level”
Source: News