Lo studio Security Priorities sul 2024 mostra che per il 72% dei decision maker in materia di IT e sicurezza i rispettivi ruoli si sono ampliati per far fronte a nuove sfide, con l’aggiunta di attività quali la gestione del rischio, la sicurezza della tecnologia abilitata dall’AI e le tecnologie emergenti. L’intelligenza artificiale ha affilato entrambi i bordi della spada, poiché le organizzazioni sono meglio equipaggiate per difendersi dagli enigmi della cybersecurity, che sono stati perfezionati per essere letali, di ampia portata e con un impatto sulle operation e sulla reputazione del mercato.
I CISO discutono di come i parametri della sicurezza informatica si stiano trasformando con l’introduzione dell’AI e la confluenza di leadership, prodotti sofisticati e normative che proteggono gli interessi di sicurezza delle aziende e dei suoi dipendenti.
Difese elevate, incidenze ridotte
L’aumento delle minacce informatiche alimentate dall’AI richiede ai fornitori di sicurezza di riprogettare le loro soluzioni. Rohit Singh, Associate Director per la Cyber Security & Information System di People interactive (Shaadi.com) afferma: “Le soluzioni di sicurezza dovrebbero andare oltre i sistemi statici basati su regole, sfruttando l’AI per comprendere l’intento degli attacchi e fornire risposte alle minacce su misura e ad alta sicurezza”. Sistemi come i Self-Healing Security Frameworks possono rivelarsi utili, dove gli strumenti di cybersecurity sono dotati di meccanismi di auto-riparazione, che consentono loro di riprendersi autonomamente dagli attacchi guidati dall’AI senza intervento manuale.
Nantha Ram, Responsabile per l’Engeneering e l’Automation della Cybersecurity di un’azienda globale di tecnologia e ingegneria, osserva: “Con le minacce alimentate dall’AI che diventano sempre più sofisticate, i modelli di intelligenza artificiale adattivi dovrebbero essere sfruttati per rilevare, in tempo reale, le deviazioni e gli attacchi basati su deepfake. L’AI spiegabile (XAI) aumenterà per garantire che i meccanismi di sicurezza guidati da questa tecnologia non diventino soluzioni black-box”.
PM Ramdas, CTO & Head – Cyber Security di Reliance Group, aggiunge: “Le imprese hanno bisogno di una visibilità completa sulle decisioni relative agli strumenti di sicurezza che proteggono l’infrastruttura aziendale. I fornitori devono offrire audit trail completi e funzionalità AI spiegabili che aiutino a mantenere la conformità normativa e la fiducia degli stakeholder”.
Ramdas offre un elemento importante che gli strumenti di cybersecurity dovrebbero possedere, cioè l’integrazione delle capacità di supervisione umana. “Le soluzioni devono includere interfacce e controlli intuitivi che consentano ai team di sicurezza di convalidare e annullare le decisioni dell’AI quando necessario, soprattutto durante gli incidenti critici”.
Bilanciare la cybersicurezza e l’AI
Un’implementazione efficace dell’intelligenza artificiale richiede una collaborazione strategica tra i leader della sicurezza e la C-suite, al fine di bilanciare l’innovazione con la gestione dei rischi.
Nantha Ram osserva che, dall’avvento dell’AI, la C-suite è motivata a incorporare l’innovazione guidata da essa senza soluzione di continuità, per non ostacolare gli sforzi di resilienza della cybersecurity. “Stabilire un protocollo come Zero Trust per i flussi di lavoro dell’AI assicura che la valutazione del rischio sia condotta prima di implementarne gli strumenti nei processi aziendali critici. Un impegno regolare con il consiglio di amministrazione e i leader aziendali assicura la visibilità del rischio”. Harvinder Singh Banga, CIO di CJ Darcl Logistics, nota che mentre l’AI è una tecnologia poliedrica, che aiuta in ogni frangente, dalla gestione della flotta alla previsione della domanda, la cybersicurezza ha la precedenza.
“Lavoriamo a stretto contatto con i leader aziendali, con i team IT e quelli che si occupano di gestione del rischio per bilanciare l’innovazione con la sicurezza. L’intelligenza delle minacce guidate dall’AI, il monitoraggio in tempo reale e gli audit trimestrali sulla sicurezza aiutano a mitigare i rischi, mentre i briefing regolari della C-suite assicurano decisioni informate, prevenendo i compromessi sulla sicurezza, mentre sfruttiamo l’AI per l’eccellenza operativa”.
Il PM Ramdas spiega che quando i dirigenti comprendono le implicazioni di sicurezza delle iniziative di AI diventano forti sostenitori di strategie di implementazione equilibrate e sicure. Questo approccio proattivo aiuta a costruire una cultura aziendale in cui la cybersecurity è vista come un fattore di supporto all’innovazione dell’intelligenza artificiale, piuttosto che come un ostacolo.
La fiducia nell’era del Deepfake AI
“Provare per credere” è un adagio da seguire ma, nell’era delle frodi deepfake non rilevabili e rese sempre più sofisticate dall’intelligenza artificiale, non è più così vero. Oltre alla disinformazione, le aziende possono avere impatti negativi in un contesto più legato al business, sulla reputazione e sul deficit di fiducia se il lato malvagio dell’IA non viene controllato.
Rohit Singh parla dei meccanismi “AI vs AI” per contrastare i truffatori. “Combattiamo le frodi guidate dall’AI con strumenti di rilevamento basati sull’intelligenza artificiale che analizzano le microespressioni, la tonalità vocale e le incongruenze nelle comunicazioni digitali per identificare i tentativi di deepfake in tempo reale. Utilizziamo anche l’autenticazione adattiva, come il rilevamento della vivacità, l’MFA contestuale e i furti di identità in tempo reale, per sventare i tentativi di mistificazione”.
Harvinder spiega che le frodi guidate dall’AI possono creare scompiglio, poiché la logistica si basa sul coordinamento in tempo reale tra gestori di flotte, fornitori e autisti. Dice: “Per mitigare i rischi, impieghiamo un approccio di sicurezza a più livelli, tra cui il rilevamento delle anomalie guidato dall’AI per segnalare modelli di offerte insolite e gli avvisi di geo-fencing per evitare deviazioni di trasporto non autorizzate. L’MFA e la verifica biometrica migliorano la sicurezza dell’accesso, rafforzata dalla formazione sulla sicurezza. Inoltre, abbiamo in programma per il futuro l’autenticazione vocale e video con AI e modelli adattivi di rilevamento del phishing”.
Buona AI, cattiva AI
“Il divieto di utilizzare strumenti di AI generativa nei dispositivi governativi evidenzia la necessità critica di policy organizzative solide sull’utilizzo dell’intelligenza artificiale”, sottolinea il PM Ramdas. “L’obiettivo principale deve essere quello di bilanciare l’innovazione con la protezione dei dati attraverso un approccio strutturato alla gestione degli strumenti di AI”.
Mentre la tecnologia è, ormai, un elemento fisso all’interno delle imprese, chi delinque con gli strumenti digitali sta sfruttando la precisione, l’accuratezza e la portata dell’AI per infiltrarsi nelle aziende e indebolirne le difese. La perdita di fatturato, il deficit di fiducia creato nei consumatori e il danno alla reputazione che questo può causare sono insormontabili.
“Per mitigare questo problema, Nantha Ram dichiara: “I nostri modelli di intelligenza artificiale sono sottoposti a rigorosi audit dei dati per garantirne la diversità ed eliminare i bias derivanti da insiemi di informazioni squilibrate. Garantire la diversità delle fonti aiuta i modelli a prendere decisioni imparziali. Inoltre, vengono implementate metriche di equità per evitare che diano priorità o trascurino vettori di attacco specifici”.
Il PM Ramdas sottolinea anche l’importanza di un comitato etico dell’AI con diverse parti interessate. “L’integrazione delle competenze umane nello sviluppo e nell’impiego dell’intelligenza artificiale è fondamentale. I team di sicurezza dovrebbero esaminare regolarmente le minacce segnalate dall’AI per convalidare i modelli di rilevamento e stabilire metriche di equità che aiutino a identificare precocemente le potenziali discriminazioni”.
Problemi di DeepSeek
Gli strumenti di AI open-source e liberamente disponibili, come ChatGPT e DeepSeek, sono stati un importante fattore di disturbo e la loro facilità e rapidità, sebbene allettanti per i dipendenti, rappresentano un rischio significativo per le aziende poiché possono causare violazioni della sicurezza così evidenti che una recente norma del Ministero delle Finanze indiano ha vietato questi strumenti di intelligenza artificiale sui dispositivi ufficiali, citando i rischi per la sicurezza dei dati.
I CIO sono unanimi su questo tema: non c’è spazio per strumenti di AI non autorizzati nell’ecosistema di un’organizzazione.
Per Harvinder Banga, la sicurezza di questa tecnologia è fondamentale, data la grande rete logistica di CJ Darcl. “L’utilizzo di qualsiasi strumento di intelligenza artificiale richiede un’approvazione eccezionale da parte del team di gestione e governance IT. Un ambiente sandbox AI sicuro consente di effettuare test controllati senza rischi per l’azienda. Per ridurre la dipendenza dall’intelligenza artificiale, stiamo sviluppando chatbot interni personalizzati alimentati dall’AI”.
Il PM Ramdas tiene a precisare: “Le aziende dovrebbero mantenere un elenco approvato di strumenti di AI che soddisfano i requisiti di sicurezza, definendo chiaramente i casi d’uso limitati”.
Lui e Rohit Singh sottolineano anche l’importanza di una formazione personalizzata e coerente dei dipendenti sui rischi legati all’AI, tra cui la perdita di dati e gli attacchi di tipo prompt injection, per creare una cultura consapevole della sicurezza; Rohit conclude: “Misure robuste di DLP (Data Loss Prevention) tracciano e impediscono la condivisione di dati sensibili con sistemi di AI esterni. Audit regolari assicurano la conformità alle normative in evoluzione, promuovendo al contempo l’alfabetizzazione all’intelligenza artificiale tra i dipendenti”.
Read More from This Article: Ecco come l’AI aggiunge complessità alla cybersicurezza e alle frodi
Source: News