Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

4 lezioni su un uso più consapevole dell’intelligenza artificiale

La maggior parte delle aziende si occupa di AI da alcuni anni, conducendo progetti pilota isolati e POC con un follow-up limitato. Tuttavia, sta iniziando a emergere un modello diverso: alcune imprese stanno ora trasformando i cosiddetti random acts of AI in pratiche aziendali ripetibili, misurabili e in linea con la missione.

In questo articolo, i leader IT di diversi settori che hanno intrapreso questo percorso condividono quattro lezioni chiave che hanno appreso lungo il cammino.

Organizzarsi per l’intenzionalità

Quando Dan Jennings è diventato CTO di Walgreens, nel 2023, l’azienda era piena di energia intorno all’intelligenza artificiale, ma mancava di coordinamento. “Avevamo sacche di attività di AI ovunque”, afferma. “Diversi team stavano sperimentando modelli, progetti pilota e strumenti dei fornitori, ma non c’era una strategia unificata”.

Il suo primo passo è stato quello di mettere ordine in quella sperimentazione creando un AI Center of Enablement (COE), una struttura virtuale che collega tecnologia, dati, InfoSec e unità aziendali in un quadro comune. Il COE funge sia da motore di innovazione che da torre di controllo, progettato per filtrare, dare priorità e scalare le iniziative di intelligenza artificiale in linea con la strategia aziendale di Walgreens. “Si tratta di fallire e imparare rapidamente, ma con disciplina, intorno all’innovazione”, aggiunge.

Il COE valuta ogni proposta, quindi guida i team attraverso un processo coerente: POC, test MVP e implementazione misurabile. “Trattiamo l’AI come qualsiasi altro investimento in prodotti”, spiega Jennings. “C’è una roadmap, un business case e una serie di risultati che possiamo monitorare”. “

Questa struttura consente a Walgreens di bilanciare la sua doppia identità di rivenditore e fornitore di assistenza sanitaria, settori con livelli di tolleranza al rischio molto diversi. Nel campo della vendita al dettaglio, l’intelligenza artificiale può muoversi rapidamente, favorendo l’ottimizzazione dell’inventario, la personalizzazione e il coinvolgimento digitale. Nel settore sanitario, ogni iniziativa richiede governance, trasparenza e convalida prima dell’implementazione. ”Stiamo unendo entrambi i mondi“, dichiara Jennings. ”L’agilità della vendita al dettaglio e la disciplina dell’assistenza sanitaria”.

Descrive l’evoluzione dell’azienda come un passaggio dall’entusiasmo all’intenzionalità. All’inizio, i dipendenti erano desiderosi di provare gli strumenti generativi da soli, creando quelli che Jennings definisce random acts of AI. Oggi, questi sforzi vengono incanalati attraverso il COE in casi d’uso [in inglese] governati che supportano le priorità fondamentali, come le previsioni farmaceutiche e la pianificazione del personale. “Non si tratta più di giocare con i modelli”, sottolinea. ” Si tratta di utilizzare l’intelligenza artificiale per ottenere risultati aziendali misurabili, in modo sicuro e su larga scala“.

Misurare il ROI oltre il bilancio

Per Will Landry, vice president senior e CIO di Franciscan Missionaries of Our Lady Health System (FMOL Health), i tradizionali parametri finanziari raccontano solo una parte della storia. ”Siamo un sistema sanitario senza scopo di lucro“, tiene a precisare, ”quindi il nostro ROI riguarda il coinvolgimento e la soddisfazione dei medici e dei pazienti, non solo il denaro”. ” In altre parole, il successo si misura tanto in termini di esperienza umana quanto di efficienza economica.

Landry afferma che l’organizzazione valuta in che modo gli strumenti di AI riducono l’affaticamento dei medici, abbreviano i tempi di documentazione e migliorano la qualità dell’interazione con i pazienti. Per esempio, con i sistemi di ascolto ambientale ora implementati in centinaia di cliniche, i medici dedicano meno tempo a completare le note dopo l’orario di lavoro e più tempo a dialogare in modo significativo con i pazienti, un cambiamento che ha aumentato sia la soddisfazione che il morale. Inoltre, i pazienti ricevono le note più rapidamente e queste sono più accurate.

Ciononostante, gli investimenti di FMOL Health nell’intelligenza artificiale stanno producendo rendimenti operativi misurabili [in inglese]. Landry sottolinea che, con la progressiva espansione dell’adozione dell’AI nel sistema sanitario, dagli strumenti di documentazione clinica all’automazione del back-office, la spesa tecnologica totale è cresciuta a un ritmo inferiore rispetto all’aumento dei ricavi e del volume dei servizi. “Questo mi dice che l’efficienza è reale”, riflette. “Stiamo automatizzando di più con lo stesso team e lo stesso numero di dipendenti”. Per Landry, questo equilibrio – maggiore coinvolgimento e spesa tecnologica stabile – è la misura più vera del ritorno dell’AI: un’azienda più sana basata sia sulla prudenza fiscale che sul benessere umano.

Presso il produttore di mobili per ufficio Steelcase, anche il CTO Steve Miller ha una visione ampia del ROI, che va ben oltre i margini di profitto e la riduzione dei costi. “Dipende dall’area di attività che stiamo cercando di affrontare”, osserva. “In alcuni casi, è un parametro di sostenibilità che stiamo cercando di influenzare. In altri, sono i livelli di esperienza e soddisfazione delle persone che lavorano con i nostri prodotti”.

Invece di considerare l’intelligenza artificiale come un semplice motore di efficienza, Miller e il suo AI Business Group collegano ogni iniziativa ai risultati più importanti per quella parte dell’azienda, che si tratti di un minor consumo energetico, di una riduzione degli sprechi di materiale o di un miglioramento dell’esperienza dei clienti e dei dipendenti [in inglese]. Per esempio, gli strumenti di analisi e simulazione basati sull’AI aiutano a ottimizzare il flusso di produzione, riducendo al minimo il consumo energetico e i tassi di scarto, mentre i sistemi incentrati sul design misurano il successo in base alla facilità con cui gli utenti interagiscono con i prodotti Steelcase. “Alcuni dei nostri risultati non sono puri parametri finanziari”, dice Miller. “Alcuni sono parametri di sostenibilità e sentiment, per esempio”.

Collegando gli investimenti nell’intelligenza artificiale alla sostenibilità e all’esperienza umana, Steelcase crea valore che si accumula nel tempo. L’analisi predittiva dell’azienda, per esempio, è in grado di prevedere quando le aziende potrebbero rinnovare i propri uffici: informazioni che aiutano i clienti a pianificare in modo responsabile, riducendo al contempo la sovrapproduzione e gli sprechi. Per Miller, questa è l’essenza dell’iAI deliberata. “Si tratta di utilizzare i dati e l’intelligenza per migliorare il modo in cui le persone lavorano e come produciamo le cose, non solo per renderle più economiche”.

Costruire la fiducia attraverso guardrail e governance

Per Landry, la fiducia è il fondamento di qualsiasi iniziativa di intelligenza artificiale nel settore sanitario. “Siamo custodi dei dati dei pazienti”, afferma. “Che si fidano di noi per proteggere le loro informazioni”. Questa responsabilità significa che l’innovazione dell’IA presso FMOL Health deve sempre bilanciare la sperimentazione con la sicurezza e la supervisione etica.

Per raggiungere tale equilibrio, il team di Landry integra la governance [in inglese] in ogni livello della progettazione e dell’implementazione tecnologica. Anche i sistemi sperimentali, come gli strumenti di ascolto clinico ambientale che redigono le note delle visite, vengono implementati sotto stretta supervisione, con il consenso esplicito dei pazienti e la revisione post-sessione da parte dei medici. “Siamo conservatori per natura”, afferma. “Se l’AI redige qualcosa, il medico lo rivede e lo approva sempre prima che venga inserito nella cartella clinica”.

La struttura di governance di FMOL Health si estende anche oltre le applicazioni cliniche. I team di gestione e sicurezza dei dati dell’organizzazione collaborano per monitorare la condivisione dei dati tra ospedali, cliniche e altri partner attraverso il programma Community Connect, che consente alle cliniche indipendenti di utilizzare in modo sicuro il sistema Epic di FMOL Health. L’obiettivo, afferma Landry, non è solo la conformità, ma anche la fiducia: i medici e i pazienti devono sapere che l’AI viene utilizzata in modo responsabile.

Per Landry, queste misure di sicurezza non rallentano l’innovazione, ma la rendono sostenibile. “L’assistenza sanitaria deve muoversi rapidamente, ma non può compromettere la sicurezza”, afferma. “Il nostro quadro di governance ci dà la fiducia necessaria per andare avanti in modo sicuro”.

Secondo Miller, la fiducia nell’intelligenza artificiale inizia con la struttura. “Abbiamo un consiglio di governance dei dati che contribuisce a fornire le linee guida non solo su ciò che si può fare con l’AI, ma anche su ciò che si dovrebbe fare”, commenta. Il consiglio, composto da leader della governance dei dati, della sicurezza delle informazioni, dell’ufficio legale e delle risorse umane, esamina ogni iniziativa di intelligenza artificiale per garantire la qualità dei dati, la privacy e l’uso etico. Il loro lavoro include la definizione di quali set di dati sono consentiti per quali scopi, il monitoraggio dei pregiudizi e l’applicazione di regole chiare su come vengono gestite le informazioni sensibili.

Miller insiste sul fatto che questo quadro non è un livello burocratico, ma un sistema di governance vivente integrato direttamente nello sviluppo dell’AI. “Abbiamo un esperto di governance dei dati che fa parte del nostro team di sviluppo dell’intelligenza artificiale”, rileva. Il compito di questa persona è supervisionare il comportamento del modello, segnalare i potenziali rischi e garantire un’iterazione responsabile durante il test dei nuovi strumenti. “Bisogna fare molto per assicurarsi che i dati vengano utilizzati correttamente”, afferma Miller. “E se non producono buoni risultati, bisogna intervenire rapidamente”.

Egli sottolinea che queste pratiche consentono l’innovazione [in inglese]. Chiarendo fin dall’inizio i confini etici, i team possono sperimentare liberamente entro parametri sicuri. “Quando si entra nel campo dell’agentic AI, è davvero necessario definire e applicare dei confini”, dice Miller.

In Steelcase, la governance è più che conformità, è una base per la fiducia. I progettisti e gli ingegneri dell’azienda si affidano quotidianamente ai sistemi di intelligenza artificiale per creare configurazioni di prodotti, simulare layout di impianti e analizzare i dati sull’utilizzo dello spazio. “Si tratta di dare ai nostri team la certezza che l’AI si comporterà in modo prevedibile ed etico”, suggerisce Miller. “Questo è ciò che permette alle persone di utilizzarla effettivamente”.

Potenziare le persone attraverso l’intelligenza artificiale

Per Russell Levy, Chief Strategy Officer presso il broker di dati ZoomInfo, il vero potere dell’AI risiede nell’amplificare le capacità umane, non nell’automatizzare le persone fuori dal processo. “Alcuni dei nostri migliori agenti AI non sono stati creati da data scientist”, afferma. “Sono stati creati da rappresentanti di vendita che sapevano esattamente cosa funzionava per loro e volevano condividerlo con tutti gli altri”.

Questo principio ha plasmato l’intera strategia di intelligenza artificiale di ZoomInfo. L’azienda fornisce ai dipendenti gli strumenti per progettare e implementare la propria AI agentica, ma secondo un modello di governance che mantiene saldamente il controllo nelle mani degli esseri umani. “Ogni agente che implementiamo ha un essere umano nel ciclo”, spiega Levy. “Un agente può redigere un’e-mail, registrare una riunione o riassumere una chiamata, ma è una persona a decidere quando e come utilizzare il risultato”.

Levy vede questo come un passaggio dall’automazione all’aumento. Codificando l’istinto dei dipendenti più performanti in agenti di intelligenza artificiale riutilizzabili, ZoomInfo rende le competenze scalabili in tutta l’azienda. La migliore strategia di follow-up di un venditore o la formulazione di un rappresentante dell’assistenza per conversazioni difficili possono ora essere catturate e condivise automaticamente. “Si tratta di prendere la conoscenza tribale e renderla riutilizzabile”, precisa Levy.

Questa democratizzazione dell’AI, in cui i dipendenti non tecnici creano agenti che incarnano la loro intelligenza di flusso di lavoro, è diventata un punto di svolta culturale. “Una volta che le persone si rendono conto di poter costruire qualcosa che aiuta loro e tutto il loro team, l’adozione avviene da sé”, spiega Levy. Il risultato è un ambiente di lavoro in cui esseri umani e agenti collaborano continuamente, imparando gli uni dagli altri. “L’intelligenza artificiale non sostituisce le nostre persone”, conclude. “Ne amplia l’impatto”.

In questi settori, i contrasti sono evidenti, ma lo è anche il filo conduttore secondo cui l’AI deliberata non è un unico modello. È una mentalità che bilancia l’innovazione con l’integrità e l’automazione con il giudizio umano.


Read More from This Article: 4 lezioni su un uso più consapevole dell’intelligenza artificiale
Source: News

Category: NewsNovember 6, 2025
Tags: art

Post navigation

PreviousPrevious post:“실험을 넘어 의도적 활용으로” 기업이 배운 AI 혁신의 4가지 교훈NextNext post:Trusted enterprise AI at scale depends on robust cybersecurity

Related posts

Adobe bets on agentic AI to rewrite SaaS for customer experience
April 20, 2026
The VMware deadline that could reshape your IT strategy
April 20, 2026
The metric missing from every AI dashboard
April 20, 2026
AI is scoring your job candidates. Can you explain how?
April 20, 2026
7 reasons you keep getting passed over for CIO
April 20, 2026
Living off the Land attacks pose a pernicious threat for enterprises
April 20, 2026
Recent Posts
  • Adobe bets on agentic AI to rewrite SaaS for customer experience
  • The VMware deadline that could reshape your IT strategy
  • The metric missing from every AI dashboard
  • AI is scoring your job candidates. Can you explain how?
  • 7 reasons you keep getting passed over for CIO
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.