La rapida adozione e il processo di democratizzazione che sta interessando l’IA generativa sono stati paragonati all’avvento della lampadina, che ha fatto lo stesso per l’elettricità, quasi 150 anni fa: la sua invenzione, avvenuta nel 1879, decenni dopo l’invenzione dell’elettricità (1831), ha portato a un radicale cambiamento nella vita per masse di individui e aziende, così come la gen AI sta facendo, oggi, per l’intelligenza artificiale.
Quando la tecnologia passa dai laboratori alla vita di tutti i giorni, la sua diffusione generalizzata si basa, in genere, su casi d’uso iniziali sempre più potenti e comprovati. Con questa rapida adozione, arriva, poi, l’entusiasmo per l’arte del possibile ed è questo uno dei motivi per cui l’IA generative è ora al culmine delle grandi aspettative definite nell’hype cycle [in inglese], il modello previsionale sviluppato da Gartner.
Infatti, ChatGPT ha guadagnato oltre 100 milioni di utenti attivi mensili dopo soli due mesi [in inglese] lo scorso anno, e la sua posizione nel ciclo di vita dell’adozione della tecnologia sta superando la sua posizione nell’hype cycle. Siamo arrivati al mainstream (ora quasi la metà della popolazione complessiva utilizza l’AI gen [in inglese]), ma siamo ancora al culmine delle aspettative. Pertanto, osservando più da vicino, potrebbe essere che, per l’IA generativa, siamo ancora al momento della lampada a gas, con la lampadina che è ancora di là da venire. E non è detto che questo sia un male.
Nel mondo della gen AI, stiamo scoprendo come il computer possa sbagliare in modi sorprendenti e, mentre la sperimentiamo nella sua applicazione sui dati pubblici e privati, impariamo, in tempo reale, che cosa funziona bene e che cosa no.
Ecco, dunque, cinque raccomandazioni per i CIO, affinché possano navigare nel hype cycle dell’IA generativa e prepararsi a una rapida transizione dal baratro della disillusione alla china dell’illuminazione.
Realismo con i clienti, con i dipendenti e con gli stakeholder
Mentre evangelizza la natura trasformativa dell’IA generativa e delle soluzioni correlate, il Chief Information Officer dovrà assicurarsi di evidenziare anche gli aspetti negativi. Le società di consulenza e i vendor di tecnologia spesso esaltano il potere trasformativo della gen AI, ma prestano meno attenzione ai suoi difetti. Anche se, a onor del vero, molti stanno lavorando per risolvere questi problemi offrendo varie piattaforme, soluzioni e kit di strumenti [in inglese].
Essere realistici significa comprendere i pro e i contro e condividere queste informazioni con i clienti, i dipendenti e i colleghi della C-suite. Anche loro apprezzeranno questa franchezza. Sarà utile, in questo senso, stilare un elenco dei pregi e dei difetti, in modo che possano essere spiegati e compresi chiaramente da tutti. Come sottolineano i consulenti specializzati nell’intelligenza artificiale, alcuni aspetti negativi includono il problema della black box, il rischio che l’IA possa essere fuorviante rispetto alle argomentazioni umane, le hallucination. E l’elenco può allungarsi ancora.
La policy di utilizzo aziendale
Come ho accennato in un articolo precedente [in inglese], una policy di utilizzo aziendale e la relativa formazione possono aiutare a educare i dipendenti su alcuni rischi e su alcune insidie della tecnologia, e fornire regole e raccomandazioni per ottenere il massimo da essa e, quindi, anche il massimo valore senza mettere a rischio l’azienda. Nello sviluppare queste regole, il CIO dovrà assicurarsi di includere tutti gli stakeholder rilevanti, di considerare come la gen AI viene utilizzata all’interno della sua azienda, come potrebbe essere impiegata in futuro, e di condividere il tutto. Dovrà rendere la policy un documento vivo e aggiornarla con una cadenza adeguata, a seconda delle necessità. La sua esistenza potrà contribuire a prevenire una serie di rischi riguardanti i contratti, la cybersecurity, la privacy dei dati, le pratiche commerciali ingannevoli, la discriminazione, la disinformazione, l’etica, la proprietà intellettuale e la validazione.
La valutazione del valore aziendale per ogni singolo caso d’uso
Nel caso di output puramente testuali, tendiamo a credere alle risposte dell’intelligenza artificiale perché sono scritte bene e, spesso, anche con un’ottima grammatica. A livello psicologico, tendiamo a credere che, dietro le quinte, ci sia un’intelligenza superiore, quando, invece, nella realtà dei fatti, l’intelligenza artificiale generativa non ha alcuna capacità di distinguere ciò che è vero da ciò che è falso.
Sebbene, per l’IA generativa esistano alcuni casi d’uso di assoluta eccellenza, occorre esaminare ciascuno di essi caso per caso. Per esempio, l’intelligenza artificiale generativa non è in grado di scrivere previsioni tecniche. I risultati spesso ci dicono qualcosa che già sappiamo e possono anche essere plagiati. Anche l’utilizzo di uno strumento di riscrittura o riformulazione può peggiorare la situazione, e i team possono finire per spendere più tempo nell’utilizzo di questi strumenti che a scrivere da soli le loro previsioni. Pertanto, è meglio scegliere caso per caso, e utilizzare l’intelligenza artificiale solo quando, nel farlo, emerge un chiaro vantaggio.
Mantenere rigorosi standard di testing
Poiché la gen AI è, con molta probabilità, utilizzata da un gran numero di dipendenti della sua azienda, sarà importante che il CIO si preoccupi di formarli ed educarli sui suoi pro e sui suoi contro, utilizzando la policy di utilizzo aziendale come punto di partenza. Con un’adozione così massiccia dell’intelligenza artificiale generativa, siamo, di fatto, tutti dei tester e impariamo man mano che la utilizziamo.
All’interno della sua impresa, che si tratti del reparto IT o delle altre unità aziendali, il Chief Information Officer dovrà, inoltre, assicurarsi di enfatizzare e di concedere un tempo considerevole per i test e per le sperimentazioni prima di andare online. Anche la creazione di community interne per la pratica, dove i dipendenti possono condividere le esperienze e le lezioni apprese, può contribuire ad aumentare la consapevolezza generale e a promuovere le best practice in tutta l’azienda.
Avere un piano per quando le cose dovessero andar male
Con lo scandalo dell’UK Post Office, abbiamo visto come anche i sistemi non abilitati all’intelligenza artificiale possano commettere errori, gravi al punto da cambiare la vita delle persone. Quando riteniamo, erroneamente, che questi sistemi siano corretti, rischiamo di far sì che centinaia di lavoratori vengano presi ingiustamente di mira. Nel caso delle Poste del Regno Unito, oltre 700 postini sono stati accusati ingiustamente di frode nel corso di 15 anni, con conseguenti danni alla reputazione, divorzi e perfino suicidi.
Quindi, è fondamentale avere un piano per quando l’IA sbaglia. Certo, la policy di utilizzo aziendale stabilisce le linee guida, ma quando le cose vanno male, come possono i processi di governance dell’IT monitorare e reagire alla situazione? C’è un piano in atto? Come faranno tali procedure a distinguere una risposta o una decisione giusta da una sbagliata? Qual è l’impatto sull’azienda quando si commettono errori? E quanto sarà facile o difficile porvi rimedio?
L’intelligenza artificiale generativa avrà il suo momento di illuminazione che non è neppure troppo lontano, ma arriverà non prima di aver superato il baratro della disillusione, aver risalito la china e, infine, aver raggiunto l’altopiano della produttività. Il gaslighting, la sperimentazione e l’apprendimento lungo il percorso fanno parte del processo.
Artificial Intelligence, CIO, Data Management
Read More from This Article: 5 modi in cui i CIO possono aiutare l’IA generativa a raggiungere il suo momento di gloria
Source: News