Le aziende stanno investendo molto denaro in strumenti, servizi e strategie che riguardano l’intelligenza artificiale [in inglese]. Purtroppo, però, i grandi esborsi non sempre garantiscono il successo.
“L’intelligenza artificiale è ovunque: trasforma i settori, rimodella i flussi di lavoro e promette un futuro di possibilità illimitate”, afferma Paul Pallath, vice president dell’AI applicata per la società di consulenza tecnologica Searce. “Ma per ogni storia di successo dell’IA, c’è un fallimento silenzioso: progetti pilota costosi che non si sviluppano mai, modelli che rafforzano i pregiudizi e sistemi che diventano obsoleti nel giro di pochi mesi”.
La differenza tra successo e fallimento sta nel modo in cui l’intelligenza artificiale viene implementata, governata e sostenuta, spiega Pallath. “Per gestire l’AI nel modo giusto, le aziende devono evitare i passi falsi più comuni e costosi.
Ecco 11 modi in cui possono fallire con questa tecnologia, assieme ai suggerimenti su come affrontare queste insidie.
Non includere gli utenti nella pianificazione dell’AI
“Il modo più rapido per far fallire un’iniziativa di intelligenza artificiale? Trattarla come un progetto tecnologico invece che come una trasformazione aziendale”, dice Pallath. “L’AI non funziona in modo isolato: prospera grazie all’intuizione umana, alla fiducia e alla collaborazione.
L’ipotesi che la semplice fornitura di strumenti attiri automaticamente gli utenti è un mito costoso, osserva Pallath. “Ha portato a innumerevoli implementazioni fallite, in cui le soluzioni di AI rimangono inutilizzate, non allineate con i flussi di lavoro effettivi o accolte con scetticismo”, tiene a precisare. “L’intelligenza artificiale deve integrarsi perfettamente nei flussi di lavoro, allinearsi alle responsabilità dei dipendenti ed essere supportata da una chiara governance. Senza il coinvolgimento di questi ultimi, rischia di essere sottoutilizzata o del tutto rifiutata, rendendo gli investimenti inefficaci”.
È necessario coinvolgere chi lavora in azienda fin dall’inizio, farlo partecipe dello sviluppo e favorire la trasparenza, avverte Pallath. “Creare quadri di governance che garantiscano l’allineamento dell’intelligenza artificiale, consentendo ai team di fidarsi, perfezionare e massimizzare il suo potenziale”, aggiunge. “La chiave è costruire l’AI con le persone, non nonostante loro”.
Trascurare la formazione e l’istruzione
L’intelligenza può avere una cattiva reputazione, con i dipendenti che temono di perdere il proprio lavoro a favore delle macchine [in inglese]. Spetta alla leadership assicurarsi che le persone comprendano come e perché le loro aziende utilizzano gli strumenti e i dati dell’AI.
Senza una forza lavoro che abbraccia questa tecnologia, “ottenere un impatto aziendale reale è difficile”, dichiara Sreekanth Menon, global leader per AI/ML dell’azienda di servizi e soluzioni professionali Genpact. “Per questo è necessario che la leadership dia priorità a una cultura digital-first e che sostenga attivamente i dipendenti durante la transizione”.
Per alleviare le preoccupazioni delle persone nei confronti dell’intelligenza artificiale, i leader dovrebbero offrire una formazione completa in tutti i reparti [in inglese], rileva Menon. “Educando i dipendenti su come l’intelligenza può migliorare il loro lavoro, e non soltanto renderlo più veloce, le imprese possono promuovere una cultura di curiosità e accettazione verso l’AI, che è fondamentale per il successo”, commenta.
“Nessun tipo di formazione sarà appropriato per tutto il personale che verrà interessato dall’IA”, nota Douglas Robbins, vice presidente del settore ingegneria e prototipazione dell’azienda di tecnologia, ricerca e sviluppo MITRE. “Per esempio, gli sviluppatori avranno bisogno di un livello diverso di comprensione dell’AI rispetto a coloro che si occupano di acquisti”.
I leader IT sono consapevoli dell’importanza della formazione sull’IA, poiché il 95% ritiene che i progetti di IA falliranno senza personale in grado di utilizzare efficacemente gli strumenti. Solo il 40% pensa che le loro aziende abbiano una formazione formale sull’AI per i dipendenti [in inglese], secondo un recente sondaggio di Pluralsight.
Non tenere conto dell’importanza di una roadmap attuabile
Il percorso di ogni impresa verso la maturità dell’intelligenza artificiale sarà, inevitabilmente, diverso, dice Robbins. “Sviluppare una roadmap AI che documenti la proposta di valore allineata alla mission, nonché quando, chi e come le capacità saranno sviluppate, testate, distribuite e sostenute”, aggiunge. Sebbene il suo commento sia riferito alle agenzie governative federali, il consiglio può essere applicato a qualsiasi azienda.
Raggiungere il livello di maturità dell’intelligenza artificiale necessario per raggiungere gli obiettivi è un processo che deve svolgersi in più fasi, ritiene Robbins. “Concentrarsi su ciò che ha funzionato e su quali barriere esistono ancora sarà fondamentale per capire come orientare gli sforzi futuri le risorse da destinare a problemi potenzialmente di lunga durata, come le policy o le assunzioni”, dichiara.
Secondo Robbins, le macrocategorie che dovrebbero essere incluse in una roadmap tesa a raggiungere la maturità dell’AI includono la strategia e le risorse; l’organizzazione e la forza lavoro; i fattori abilitanti della tecnologia; la gestione dei dati; l’uso etico, equo e responsabile; le performance e le applicazioni,
Mettere in secondo piano la gestione dei dati
Poter disporre di dati di alta qualità è fondamentale per il successo dell’intelligenza artificiale. “Senza basi solide, l’adozione dell’intelligenza diventa quasi impossibile”, afferma Menon di Genpact. Un recente sondaggio condotto dalla sua società e HFS Research su 550 dirigenti senior mostra come il 42% ritenga che la mancanza di qualità o di strategia dei dati sia il maggiore ostacolo all’adozione dell’AI. Una scarsa igiene dei dati ne compromette il successo, evidenzia Menon.
“Costruite una piattaforma dati centralizzata per organizzare e gestire le informazioni provenienti da più fonti”, dice Meno. “Questo assicura dati di alta qualità e ben curati per guidare con successo i modelli di AI”.
I dati non completi e imprecisi “non solo minacciano il processo decisionale, ma possono portare a disguidi normativi”, aggiunge Souvik Das, Chief Product and Technology Officer dell’azienda di software finanziario Clearwater Analytics.
Le aziende devono stabilire un framework di governance per la loro gestione [in inglese]. “La gestione dei dati ad hoc è out mentre un quadro strutturato è in, fornendo chiarezza e coerenza nei ruoli, nelle responsabilità e nei processi come assicurare che i dati siano puliti meticolosamente e che l’accesso sia controllato e conforme”, dice Das.
La governance dei dati può essere tanto complicata quanto vitale, con molte insidie da evitare [in inglese].
Pensare che l’AI sia una soluzione “set-it-and-forget-it”
L’AI non è un’implementazione unica. “È un sistema vivente che richiede un monitoraggio, un adattamento e un’ottimizzazione costanti”, sottolinea Pallath di Searce. “Eppure, molte imprese trattano l’AI come uno strumento plug-and-play, per poi vederla diventare obsoleta. Senza team dedicati alla manutenzione e al perfezionamento dei modelli, l’AI perde rapidamente rilevanza, precisione e impatto aziendale”.
I cambiamenti del mercato, l’evoluzione dei comportamenti dei clienti e le modifiche normative possono trasformare uno strumento di AI un tempo potente in un problema, precisa Pallath. Se non controllata, l’intelligenza artificiale potrebbe produrre risultati obsoleti o addirittura dannosi, erodendo la fiducia, i ricavi e il vantaggio competitivo.
“Occorre costruire team dedicati per monitorare le prestazioni dell’AI, automatizzare gli aggiornamenti e perfezionare continuamente i modelli”, dice Pallath. “Va trattata come un sistema vivente, che vive di iterazione, apprendimento e governance proattiva per fornire un valore duraturo. Il successo non è solo l’implementazione, ma anche l’impegno a lungo termine verso l’eccellenza”.
Ignorare i framework dell’AI
Una delle sviste più pericolose nell’implementazione dell’intelligenza artificiale è trascurare la messa a punto di solidi processi etici [in inglese], racconta Pallath. “Senza chiare linee guida per un uso responsabile dell’AI, le aziende rischiano di impiegare algoritmi distorti, di gestire male i dati sensibili o di perseguire casi d’uso problematici che possono innescare sanzioni normative e danni alla reputazione”, afferma.
I framework etici forti non sono dei vincoli, ma dei fattori abilitanti che allineano le iniziative di AI con i valori organizzativi e la fiducia degli stakeholder, indica Pallath. “È necessario dare vita a un impianto di implementazioni responsabili e complete fin dal primo giorno”, suggerisce. “Dare priorità all’etica, alla conformità e alla trasparenza in ogni iniziativa, poiché l’AI responsabile non è solo una mitigazione dei rischi, ma un vantaggio competitivo che crea fiducia, credibilità e resilienza aziendale”.
Trascurare i rischi
Le implementazioni di intelligenza artificiale, come qualsiasi iniziativa IT, comportano dei rischi. Alcuni di questi riguardano la cybersicurezza [in inglese] e altri l’integrità dei dati e la privacy.
“La mancanza di considerazioni etiche standardizzate sull’AI crea delle sfide nella gestione dei rischi potenziali associati, come gli algoritmi distorti e le violazioni della sicurezza”, osserva Menon. “Le ripercussioni di questi problemi possono essere gravi, con conseguenti danni alla reputazione e responsabilità legali”.
Le imprese devono adottare misure per proteggere i dati dell’AI e garantire la loro integrità e la privacy.
“Stabilendo dei binari di protezione fin dall’inizio, in conformità con i principi dell’AI responsabile e con le convinzioni e le strategie dell’organizzazione, le aziende possono mitigare i rischi, promuovere la fiducia dei clienti, distinguersi dalla concorrenza e aprire la strada all’innovazione a lungo termine”.
Muoversi troppo velocemente per distribuire l’AI in modo esteso
Sommergere un’azienda di casi d’uso dell’AI senza prima testare i concetti e le applicazioni in alcune aree selezionate potrebbe portare al fallimento.
“Adottate un approccio graduale”, dice Robbins del MITRE. “Iniziate con applicazioni più semplici e poco invasive e passate gradualmente a usi più complessi e potenzialmente intrusivi. Le prime applicazioni di AI possono aiutare in compiti come l’analisi dei dati, la traduzione linguistica in tempo reale e l’automazione amministrativa”.
Con il tempo, possono essere adottati utilizzi più avanzati, come l’identificazione di modelli precedentemente non rilevabili, a condizione che siano presenti i quadri di governance, afferma Robbins.
Non tenere conto dei processi esistenti
“Quando si mette in atto l’esecuzione dell’AI, è fondamentale applicare la stessa attenzione al ripensamento dei processi su come viene svolto il lavoro”, spiega Lan Guan, chief AI officer della società di servizi IT e professionali Accenture.
“I leader aziendali hanno un senso di urgenza maggiore per ‘far accadere le cose’, ma non considerare i processi può danneggiare gli sforzi per scalare l’AI a lungo termine. Dobbiamo evitare di usarla per amplificare ciò che è già rotto”. Ci si può, peraltro, aspettare che questo problema si aggravi con l’ingresso in azienda dell’agentic AI orientati alle decisioni [in inglese]
Non stabilire un ROI dimostrabile
Acquistare molte soluzioni di intelligenza artificiale senza considerare il ritorno sull’investimento (ROI) è un buon modo per condannare le strategie di AI.
“Molte imprese si sono affrettate a implementare l’AI senza allineare le loro strategie con obiettivi aziendali chiari, rendendo difficile misurare il successo”, riconosce Menon. “Questa mancanza di allineamento ostacola l’impatto a lungo termine e l’ottimizzazione delle risorse”.
La leadership deve prima definire i benefici attesi dall’intelligenza artificiale, assicurandosi che la strategia sostenga la crescita a lungo termine, aggiunge il manager. “L’AI è affamata di energia. Non ci si può permettere di buttare solo più risorse sul problema e sperare nel meglio”. Invece, i leader devono esaminare attentamente le implicazioni di costo di ogni flusso di lavoro guidato da questa tecnologia”.
Sottovalutare l’importanza della misurazione dei risultati
L’AI senza misurazione [in inglese] è un’AI senza responsabilità, dice Pallath. “Un errore fondamentale delle imprese è lanciare iniziative di intelligenza artificiale senza chiare metriche di successo”, aggiunge. “Senza solidi quadri di misurazione, è impossibile verificare se i sistemi di AI stiano fornendo un reale valore aziendale o se stiano solo creando un debito tecnico”.
L’incapacità di quantificare l’impatto compromette sia le prestazioni attuali che gli investimenti futuri, secondo Pallath. Le organizzazioni devono stabilire metriche chiare prima dell’implementazione. “Tracciate sia le prestazioni tecniche che l’impatto aziendale”, conclude. “Ricordate che ciò che viene misurato viene migliorato, e solo il successo dell’AI misurato può essere replicato e scalato”.
Read More from This Article: 11 modi per fallire con l’intelligenza artificiale
Source: News