La maggior parte delle aziende si occupa di AI da alcuni anni, conducendo progetti pilota isolati e POC con un follow-up limitato. Tuttavia, sta iniziando a emergere un modello diverso: alcune imprese stanno ora trasformando i cosiddetti random acts of AI in pratiche aziendali ripetibili, misurabili e in linea con la missione.
In questo articolo, i leader IT di diversi settori che hanno intrapreso questo percorso condividono quattro lezioni chiave che hanno appreso lungo il cammino.
Organizzarsi per l’intenzionalità
Quando Dan Jennings è diventato CTO di Walgreens, nel 2023, l’azienda era piena di energia intorno all’intelligenza artificiale, ma mancava di coordinamento. “Avevamo sacche di attività di AI ovunque”, afferma. “Diversi team stavano sperimentando modelli, progetti pilota e strumenti dei fornitori, ma non c’era una strategia unificata”.
Il suo primo passo è stato quello di mettere ordine in quella sperimentazione creando un AI Center of Enablement (COE), una struttura virtuale che collega tecnologia, dati, InfoSec e unità aziendali in un quadro comune. Il COE funge sia da motore di innovazione che da torre di controllo, progettato per filtrare, dare priorità e scalare le iniziative di intelligenza artificiale in linea con la strategia aziendale di Walgreens. “Si tratta di fallire e imparare rapidamente, ma con disciplina, intorno all’innovazione”, aggiunge.
Il COE valuta ogni proposta, quindi guida i team attraverso un processo coerente: POC, test MVP e implementazione misurabile. “Trattiamo l’AI come qualsiasi altro investimento in prodotti”, spiega Jennings. “C’è una roadmap, un business case e una serie di risultati che possiamo monitorare”. “
Questa struttura consente a Walgreens di bilanciare la sua doppia identità di rivenditore e fornitore di assistenza sanitaria, settori con livelli di tolleranza al rischio molto diversi. Nel campo della vendita al dettaglio, l’intelligenza artificiale può muoversi rapidamente, favorendo l’ottimizzazione dell’inventario, la personalizzazione e il coinvolgimento digitale. Nel settore sanitario, ogni iniziativa richiede governance, trasparenza e convalida prima dell’implementazione. ”Stiamo unendo entrambi i mondi“, dichiara Jennings. ”L’agilità della vendita al dettaglio e la disciplina dell’assistenza sanitaria”.
Descrive l’evoluzione dell’azienda come un passaggio dall’entusiasmo all’intenzionalità. All’inizio, i dipendenti erano desiderosi di provare gli strumenti generativi da soli, creando quelli che Jennings definisce random acts of AI. Oggi, questi sforzi vengono incanalati attraverso il COE in casi d’uso [in inglese] governati che supportano le priorità fondamentali, come le previsioni farmaceutiche e la pianificazione del personale. “Non si tratta più di giocare con i modelli”, sottolinea. ” Si tratta di utilizzare l’intelligenza artificiale per ottenere risultati aziendali misurabili, in modo sicuro e su larga scala“.
Misurare il ROI oltre il bilancio
Per Will Landry, vice president senior e CIO di Franciscan Missionaries of Our Lady Health System (FMOL Health), i tradizionali parametri finanziari raccontano solo una parte della storia. ”Siamo un sistema sanitario senza scopo di lucro“, tiene a precisare, ”quindi il nostro ROI riguarda il coinvolgimento e la soddisfazione dei medici e dei pazienti, non solo il denaro”. ” In altre parole, il successo si misura tanto in termini di esperienza umana quanto di efficienza economica.
Landry afferma che l’organizzazione valuta in che modo gli strumenti di AI riducono l’affaticamento dei medici, abbreviano i tempi di documentazione e migliorano la qualità dell’interazione con i pazienti. Per esempio, con i sistemi di ascolto ambientale ora implementati in centinaia di cliniche, i medici dedicano meno tempo a completare le note dopo l’orario di lavoro e più tempo a dialogare in modo significativo con i pazienti, un cambiamento che ha aumentato sia la soddisfazione che il morale. Inoltre, i pazienti ricevono le note più rapidamente e queste sono più accurate.
Ciononostante, gli investimenti di FMOL Health nell’intelligenza artificiale stanno producendo rendimenti operativi misurabili [in inglese]. Landry sottolinea che, con la progressiva espansione dell’adozione dell’AI nel sistema sanitario, dagli strumenti di documentazione clinica all’automazione del back-office, la spesa tecnologica totale è cresciuta a un ritmo inferiore rispetto all’aumento dei ricavi e del volume dei servizi. “Questo mi dice che l’efficienza è reale”, riflette. “Stiamo automatizzando di più con lo stesso team e lo stesso numero di dipendenti”. Per Landry, questo equilibrio – maggiore coinvolgimento e spesa tecnologica stabile – è la misura più vera del ritorno dell’AI: un’azienda più sana basata sia sulla prudenza fiscale che sul benessere umano.
Presso il produttore di mobili per ufficio Steelcase, anche il CTO Steve Miller ha una visione ampia del ROI, che va ben oltre i margini di profitto e la riduzione dei costi. “Dipende dall’area di attività che stiamo cercando di affrontare”, osserva. “In alcuni casi, è un parametro di sostenibilità che stiamo cercando di influenzare. In altri, sono i livelli di esperienza e soddisfazione delle persone che lavorano con i nostri prodotti”.
Invece di considerare l’intelligenza artificiale come un semplice motore di efficienza, Miller e il suo AI Business Group collegano ogni iniziativa ai risultati più importanti per quella parte dell’azienda, che si tratti di un minor consumo energetico, di una riduzione degli sprechi di materiale o di un miglioramento dell’esperienza dei clienti e dei dipendenti [in inglese]. Per esempio, gli strumenti di analisi e simulazione basati sull’AI aiutano a ottimizzare il flusso di produzione, riducendo al minimo il consumo energetico e i tassi di scarto, mentre i sistemi incentrati sul design misurano il successo in base alla facilità con cui gli utenti interagiscono con i prodotti Steelcase. “Alcuni dei nostri risultati non sono puri parametri finanziari”, dice Miller. “Alcuni sono parametri di sostenibilità e sentiment, per esempio”.
Collegando gli investimenti nell’intelligenza artificiale alla sostenibilità e all’esperienza umana, Steelcase crea valore che si accumula nel tempo. L’analisi predittiva dell’azienda, per esempio, è in grado di prevedere quando le aziende potrebbero rinnovare i propri uffici: informazioni che aiutano i clienti a pianificare in modo responsabile, riducendo al contempo la sovrapproduzione e gli sprechi. Per Miller, questa è l’essenza dell’iAI deliberata. “Si tratta di utilizzare i dati e l’intelligenza per migliorare il modo in cui le persone lavorano e come produciamo le cose, non solo per renderle più economiche”.
Costruire la fiducia attraverso guardrail e governance
Per Landry, la fiducia è il fondamento di qualsiasi iniziativa di intelligenza artificiale nel settore sanitario. “Siamo custodi dei dati dei pazienti”, afferma. “Che si fidano di noi per proteggere le loro informazioni”. Questa responsabilità significa che l’innovazione dell’IA presso FMOL Health deve sempre bilanciare la sperimentazione con la sicurezza e la supervisione etica.
Per raggiungere tale equilibrio, il team di Landry integra la governance [in inglese] in ogni livello della progettazione e dell’implementazione tecnologica. Anche i sistemi sperimentali, come gli strumenti di ascolto clinico ambientale che redigono le note delle visite, vengono implementati sotto stretta supervisione, con il consenso esplicito dei pazienti e la revisione post-sessione da parte dei medici. “Siamo conservatori per natura”, afferma. “Se l’AI redige qualcosa, il medico lo rivede e lo approva sempre prima che venga inserito nella cartella clinica”.
La struttura di governance di FMOL Health si estende anche oltre le applicazioni cliniche. I team di gestione e sicurezza dei dati dell’organizzazione collaborano per monitorare la condivisione dei dati tra ospedali, cliniche e altri partner attraverso il programma Community Connect, che consente alle cliniche indipendenti di utilizzare in modo sicuro il sistema Epic di FMOL Health. L’obiettivo, afferma Landry, non è solo la conformità, ma anche la fiducia: i medici e i pazienti devono sapere che l’AI viene utilizzata in modo responsabile.
Per Landry, queste misure di sicurezza non rallentano l’innovazione, ma la rendono sostenibile. “L’assistenza sanitaria deve muoversi rapidamente, ma non può compromettere la sicurezza”, afferma. “Il nostro quadro di governance ci dà la fiducia necessaria per andare avanti in modo sicuro”.
Secondo Miller, la fiducia nell’intelligenza artificiale inizia con la struttura. “Abbiamo un consiglio di governance dei dati che contribuisce a fornire le linee guida non solo su ciò che si può fare con l’AI, ma anche su ciò che si dovrebbe fare”, commenta. Il consiglio, composto da leader della governance dei dati, della sicurezza delle informazioni, dell’ufficio legale e delle risorse umane, esamina ogni iniziativa di intelligenza artificiale per garantire la qualità dei dati, la privacy e l’uso etico. Il loro lavoro include la definizione di quali set di dati sono consentiti per quali scopi, il monitoraggio dei pregiudizi e l’applicazione di regole chiare su come vengono gestite le informazioni sensibili.
Miller insiste sul fatto che questo quadro non è un livello burocratico, ma un sistema di governance vivente integrato direttamente nello sviluppo dell’AI. “Abbiamo un esperto di governance dei dati che fa parte del nostro team di sviluppo dell’intelligenza artificiale”, rileva. Il compito di questa persona è supervisionare il comportamento del modello, segnalare i potenziali rischi e garantire un’iterazione responsabile durante il test dei nuovi strumenti. “Bisogna fare molto per assicurarsi che i dati vengano utilizzati correttamente”, afferma Miller. “E se non producono buoni risultati, bisogna intervenire rapidamente”.
Egli sottolinea che queste pratiche consentono l’innovazione [in inglese]. Chiarendo fin dall’inizio i confini etici, i team possono sperimentare liberamente entro parametri sicuri. “Quando si entra nel campo dell’agentic AI, è davvero necessario definire e applicare dei confini”, dice Miller.
In Steelcase, la governance è più che conformità, è una base per la fiducia. I progettisti e gli ingegneri dell’azienda si affidano quotidianamente ai sistemi di intelligenza artificiale per creare configurazioni di prodotti, simulare layout di impianti e analizzare i dati sull’utilizzo dello spazio. “Si tratta di dare ai nostri team la certezza che l’AI si comporterà in modo prevedibile ed etico”, suggerisce Miller. “Questo è ciò che permette alle persone di utilizzarla effettivamente”.
Potenziare le persone attraverso l’intelligenza artificiale
Per Russell Levy, Chief Strategy Officer presso il broker di dati ZoomInfo, il vero potere dell’AI risiede nell’amplificare le capacità umane, non nell’automatizzare le persone fuori dal processo. “Alcuni dei nostri migliori agenti AI non sono stati creati da data scientist”, afferma. “Sono stati creati da rappresentanti di vendita che sapevano esattamente cosa funzionava per loro e volevano condividerlo con tutti gli altri”.
Questo principio ha plasmato l’intera strategia di intelligenza artificiale di ZoomInfo. L’azienda fornisce ai dipendenti gli strumenti per progettare e implementare la propria AI agentica, ma secondo un modello di governance che mantiene saldamente il controllo nelle mani degli esseri umani. “Ogni agente che implementiamo ha un essere umano nel ciclo”, spiega Levy. “Un agente può redigere un’e-mail, registrare una riunione o riassumere una chiamata, ma è una persona a decidere quando e come utilizzare il risultato”.
Levy vede questo come un passaggio dall’automazione all’aumento. Codificando l’istinto dei dipendenti più performanti in agenti di intelligenza artificiale riutilizzabili, ZoomInfo rende le competenze scalabili in tutta l’azienda. La migliore strategia di follow-up di un venditore o la formulazione di un rappresentante dell’assistenza per conversazioni difficili possono ora essere catturate e condivise automaticamente. “Si tratta di prendere la conoscenza tribale e renderla riutilizzabile”, precisa Levy.
Questa democratizzazione dell’AI, in cui i dipendenti non tecnici creano agenti che incarnano la loro intelligenza di flusso di lavoro, è diventata un punto di svolta culturale. “Una volta che le persone si rendono conto di poter costruire qualcosa che aiuta loro e tutto il loro team, l’adozione avviene da sé”, spiega Levy. Il risultato è un ambiente di lavoro in cui esseri umani e agenti collaborano continuamente, imparando gli uni dagli altri. “L’intelligenza artificiale non sostituisce le nostre persone”, conclude. “Ne amplia l’impatto”.
In questi settori, i contrasti sono evidenti, ma lo è anche il filo conduttore secondo cui l’AI deliberata non è un unico modello. È una mentalità che bilancia l’innovazione con l’integrità e l’automazione con il giudizio umano.
Read More from This Article: 4 lezioni su un uso più consapevole dell’intelligenza artificiale
Source: News

