La saggezza comune ha a lungo sostenuto che un approccio “cloud-first” consente ai CIO di ottenere vantaggi come agilità, scalabilità ed efficienza dei costi per applicazioni e carichi di lavoro. Sebbene il cloud resti la piattaforma infrastrutturale preferita dalla maggior parte dei leader tech, molti stanno rivedendo la propria strategia, passando dal “cloud-first” a un approccio “cloud-smart”: invece di spostare tutto off-premises e privilegiare “la nuvola”, a prescindere, per ogni nuova iniziativa, scelgono di volta in volta la soluzione più adatta ai singoli workload.
“L’ottimizzazione dei costi per il cloud è uno dei fattori che motiva questo ripensamento, con le aziende che lottano per controllare spese in rapido aumento. Si stima che il 21% dell’esborso enterprise per le infrastrutture cloud [in inglese], pari a 44,5 miliardi di dollari nel 2025, venga sprecato in risorse sottoutilizzate, con il 31% dei CIO che spreca metà della propria spesa [in inglese], secondo quanto si legge in un recente sondaggio di VMware.”
La corsa totale verso il cloud è finita, sostiene Ryan McElroy [in inglese], vice president of technology della società di consulenza Hylaine. Le imprese cloud-smart hanno un processo ben definito e comprovato per determinare quali carichi di lavoro siano più adatti al cloud.
Per esempio, “qualcosa che deve essere erogato molto rapidamente e supportare in futuro una scala enorme dovrebbe essere sviluppato nel cloud”, spiega McElroy. “Soluzioni basate su tecnologie legacy, che devono essere ospitate su macchine virtuali o che hanno workload molto prevedibili destinati a durare anni, dovrebbero invece essere distribuite in data center ben gestiti”.
Sempre secondo il manager, il trend cloud-smart è influenzato da una migliore tecnologia on-prem, da cicli hardware più lunghi, dai margini estremamente elevati dei provider cloud hyperscaler e dai consueti cicli di hype del settore. Tutti elementi che favoriscono approcci infrastrutturali ibridi.
Tuttavia, “l’AI ha aggiunto un’altra grande complicazione [in inglese], con dati e capacità di calcolo frammentati in silos”, aggiunge. “Molte aziende non sono interessate o non sono in grado di costruire data center ad alte prestazioni basati su GPU, e hanno bisogno di usare il cloud. Ma se finora sono state conservative o avverse ai costi, è probabile che i loro dati si trovino nella componente on-prem della loro infrastruttura ibrida”.
Queste variabili hanno portato complessità o costi imprevisti [in inglese], sia tramite la migrazione sia attraverso le tariffe di data egress, osserva McElroy.
Stima che “solo il 10% del settore abbia ammesso apertamente di muoversi” verso il cloud-smart. Anche se questa percentuale può sembrare bassa, secondo McElroy è comunque significativa.
“Ci sono molti prerequisiti per cambiare posizione sul cloud”, spiega. “Innanzitutto, in genere devi essere un nuovo CIO o CTO. Chi ha guidato la migrazione verso il cloud farà molta fatica a tornare indietro”.
Inoltre, le imprese devono aver mantenuto e fatto evolvere le competenze del personale che gestisce il data center di proprietà o presso il fornitore di co-location. Devono anche avere esigenze infrastrutturali tali da superare i benefici del cloud in termini di pura agilità e di calcolo frazionato, aggiunge McElroy.
Selezionare e rivalutare il giusto hyperscaler
Procter & Gamble ha adottato una strategia cloud-first quando ha iniziato a migrare i carichi di lavoro circa otto anni fa, racconta Paola Lucetti [in inglese], CTO e senior vice president. In quel momento il mandato era che tutte le nuove applicazioni venissero distribuite nel cloud pubblico e che i carichi di lavoro esistenti migrassero dagli ambienti di hosting tradizionali agli hyperscaler, spiega Lucetti.
“Questo approccio ci ha permesso di modernizzare rapidamente, ridurre la dipendenza dalle infrastrutture legacy e sfruttare la scalabilità e la resilienza offerte dalle piattaforme cloud”, sottolinea.
Oggi quasi tutti i workload di P&G girano nel cloud. “Scegliamo di mantenere alcuni carichi di lavoro fuori dal cloud pubblico per esigenze di latenza o di prestazioni, che rivalutiamo regolarmente”, spiega Lucetti. “Queste fondamenta ci hanno garantito velocità e flessibilità in una fase critica della trasformazione digitale”.
Con la maturazione dell’ecosistema cloud dell’azienda, sono maturate anche le priorità di business. “L’ottimizzazione dei costi, la sostenibilità e l’agilità sono passate in primo piano”, rimarca. “Per P&G, essere cloud-smart significa selezionare e rivalutare regolarmente l’hyperscaler giusto per ogni workload, incorporare pratiche FinOps [in inglese] per trasparenza e governance e sfruttare architetture ibride per supportare casi d’uso specifici”.
Questo approccio dà più potere agli sviluppatori attraverso automazione, AI e agenti per generare valore più velocemente, dice Lucetti. “Non è solo una questione tecnica, è culturale. Riflette una mentalità di flessibilità strategica, in cui le decisioni tecnologiche si allineano ai risultati di business”.
L’AI sta ridisegnando le decisioni sul cloud
L’intelligenza artificiale rappresenta un potenziale fabbisogno di spesa enorme e alza la posta in gioco per la strategia infrastrutturale, rileva McElroy.
“Noleggiare server pieni di costose GPU Nvidia tutto il giorno, ogni giorno, per tre anni, sarà finanziariamente rovinoso rispetto all’acquisto diretto”, dice. “Ma la flessibilità di poter usare senza soluzione di continuità i modelli dell’anno successivo può rappresentare un vantaggio strategico”.
Cisco, per esempio, è diventata molto più oculata nel decidere che cosa debba davvero risiedere nel cloud pubblico, commenta Nik Kale [in inglese], principal engineer e product architect. Il costo è un fattore, ma il driver principale è la data governance per l’AI [in inglese].
“Essere cloud-smart non significa repatriation – non è solo riportare workload on-prem – ma allineare la gravità dei dati dell’AI con il giusto piano di controllo”, precisa.
L’IT ha distinto ciò che dovrebbe stare in un cloud privato da ciò che va nel cloud pubblico. “L’addestramento e il fine-tuning di grandi modelli richiedono un forte controllo sui dati dei clienti e sulla telemetria”, spiega Kale. “Per questo favoriamo sempre più spesso architetture ibride in cui inferenza ed elaborazione dei dati avvengono all’interno di ambienti privati e sicuri, mentre orchestrazione e servizi non sensibili restano nel cloud pubblico”.
La strategia cloud-smart di Cisco parte dalla classificazione dei dati e dal profiling dei workload. Qualsiasi elemento che contenga informazioni identificabili sui clienti, tracce diagnostiche e cicli di feedback dei modelli viene elaborato all’interno di cloud privati regionali conformi alle normative, spiega.
Poi ci sono “servizi stateless, content delivery e aggregazione della telemetria che traggono beneficio dall’elasticità del cloud pubblico per scala ed efficienza”, aggiunge Kale.
L’approccio di Cisco prevede inoltre “il confezionamento di funzionalità che in precedenza risiedevano nel cloud per un deployment sicuro all’interno degli ambientienti dei clienti – offrendo localmente gli stessi insight e la stessa automazione abilitati dall’AI, senza esporre i dati a un’infrastruttura condivisa”, evidenzia. “Questo dà ai clienti la flessibilità di adottare funzionalità di intelligenza artificiale senza compromettere residenza dei dati, privacy o costi”.
Queste pratiche hanno migliorato la postura di conformità di Cisco, ridotto la latenza dell’inferenza e generato riduzioni a doppia cifra della spesa cloud, sottolinea Kale.
Un’area in cui l’AI ha cambiato radicalmente il loro approccio al cloud è il rilevamento delle minacce su larga scala. “Le prime versioni dei nostri modelli giravano interamente nel cloud pubblico, ma quando abbiamo iniziato a fare fine-tuning sulla telemetria specifica dei clienti, la sensibilità e il volume di quei dati hanno reso il data egress verso il cloud sia costoso che difficile da governare”, nota Kale. “Spostare l’addestramento e i cicli di feedback in cloud privati regionali ci ha garantito la piena tracciabilità e ha ridotto in modo significativo i costi di trasferimento, mantenendo l’inferenza ibrida così che i clienti nelle regioni regolamentate ottenessero tempi di risposta inferiori al secondo”.
L’IT ha osservato un problema simile con il proprio assistente di supporto basato su AI generativa. “Inizialmente le trascrizioni dei casi e i log diagnostici venivano elaborati da LLM nel cloud pubblico”, racconta Kale. “Quando i clienti dei settori finance e healthcare hanno sollevato legittime preoccupazioni sui dati che lasciavano i loro ambienti, abbiamo ri-architettato la soluzione per eseguirla direttamente all’interno dei loro virtual private cloud o cluster on-prem”.
Lo strato di orchestrazione rimane nel cloud pubblico, ma i dati sensibili non escono mai dal loro piano di controllo, aggiunge.
L’AI ha anche ridefinito il modo in cui vengono gestite le analytics di telemetria nell’intero portfolio CX di Cisco. L’IT raccoglie dati operativi su scala petabyte da oltre 140.000 ambienti cliente.
“Quando siamo passati alla predictive AI in tempo reale, il costo e la latenza dell’invio dei dati grezzi di serie temporali al cloud sono diventati un collo di bottiglia”, conclude Kale. “Spostando l’estrazione delle feature e il rilevamento delle anomalie sul collector locale del cliente e inviando al cloud solo segnali di rischio ad alto livello, abbiamo ridotto drasticamente l’egress migliorando al contempo la fedeltà dei modelli”.
In tutti i casi, “è stata l’AI a rendere chiari i compromessi architetturali: workload specifici traggono beneficio dall’elasticità del cloud pubblico, ma le funzioni di AI più sensibili, data-intensive e critiche in termini di latenza devono essere eseguite più vicino ai dati”, conclude Kale. “Per noi, cloud-smart significa meno repatriation e più allineamento tra gravità dei dati, confini di privacy ed economia dell’inferenza con il giusto piano di controllo”.
Un percorso meno costoso
Come P&G, anche World Insurance Associates ritiene che cloud-smart equivalga a implementare un framework FinOps. Il CIO Michael Corrigan [in inglese] spiega che questo significa avere una configurazione ottimizzata e coerente delle macchine virtuali in base al caso d’uso di business e comprendere quanta capacità di storage e di calcolo sia necessaria.
Questi sono i principali driver dei costi, “per cui abbiamo un set coerente di standard che determinano le dimensioni dei nostri diversi ambienti sulla base del caso d’uso”, chiarisce Corrigan. Questo garantisce a World Insurance quella che descrive come un’architettura automatizzata.
“Poi ottimizziamo la configurazione per assicurarci di avere attivate funzionalità come l’elasticità. Così, quando i servizi non vengono utilizzati – di solito durante la notte – si spengono e riducono la quantità di storage e di compute attivi, in modo che l’azienda non li paghi”, spiega. “Si parte dalle fondamenta: ottimizzazione e standard”.
World Insurance lavora con i suoi cloud provider su diversi livelli di impegno. Con Microsoft, per esempio, la compagnia assicurativa ha l’opzione di usare macchine virtuali “a consumo” oppure quella che Corrigan definisce una “reserved instance”. Indicando al provider quante macchine prevede di utilizzare o quanto prevede di spendere, può provare a negoziare degli sconti.
“È qui che il framework FinOps deve davvero essere in atto… perché ovviamente non vuoi impegnarti su un livello di spesa che poi non consumeresti”, osserva Corrigan. “È un buon modo per noi, in quanto organizzazione che utilizza quei servizi cloud, di ottenere sconti significativi in anticipo”.
World Insurance utilizza l’AI per automazione e alert. Gli strumenti di intelligenza artificiale sono in genere addebitati in base alla capacità di elaborazione, “e quello che puoi fare è progettare la tua query in modo che, se è qualcosa di meno complicato, segua un percorso di esecuzione meno costoso”, spiega, indirizzandola verso uno small language model (SLM) [in inglese], che non utilizza la stessa potenza di calcolo.
L’utente ottiene un risultato soddisfacente e “il costo è minore perché non stai consumando così tante risorse”, aggiunge.
È questa la tattica adottata dall’azienda: indirizzare le query di AI verso il modello meno costoso. Se c’è un workflow o un processo più complesso, viene indirizzato prima all’SLM “per vedere se soddisfa le esigenze”, prosegue Corrigan. Se le necessità sono più complesse, il flusso viene spostato alla fase successiva, più costosa, che in genere coinvolge un LLM che deve elaborare una quantità maggiore di dati per restituire all’utente finale ciò che sta cercando.
“Cerchiamo quindi di gestire i costi in questo modo, consumando solo ciò che è davvero necessario in base alla complessità del processo”, spiega.
Il cloud come “framework vivente”
McElroy di Hylaine sostiene che i CIO e i CTO devono essere più disponibili a discutere i vantaggi delle configurazioni ibride e di come lo stato dell’arte sia cambiato negli ultimi anni.
“Molte aziende stanno lottando con costi cloud che sanno istintivamente essere troppo alti, ma esistono pochi incentivi per affrontare il lavoro rischioso della repatriation quando un CFO non ha visibilità sui risparmi a cui sta rinunciando”, avverte.
Lucetti definisce la strategia cloud di P&G come “un framework vivente” e dichiara che nei prossimi anni l’azienda continuerà a sfruttare le capacità cloud più adatte per abilitare AI e agentic al servizio del valore di business.
“L’obiettivo è semplice: mantenere la tecnologia allineata alla crescita dell’azienda, restando al contempo agili in un panorama digitale in rapido cambiamento”, conclude. “La trasformazione cloud non è una destinazione, è un viaggio. In P&G sappiamo che il successo deriva dall’allineare le decisioni tecnologiche ai risultati di business e dall’abbracciare la flessibilità”.
Read More from This Article: Ecco come i CIO stanno passando dal “cloud-first” al “cloud-smart”
Source: News

