Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

Ecco come l’AI aggiunge complessità alla cybersicurezza e alle frodi

Lo studio Security Priorities sul 2024 mostra che per il 72% dei decision maker in materia di IT e sicurezza i rispettivi ruoli si sono ampliati per far fronte a nuove sfide, con l’aggiunta di attività quali la gestione del rischio, la sicurezza della tecnologia abilitata dall’AI e le tecnologie emergenti. L’intelligenza artificiale ha affilato entrambi i bordi della spada, poiché le organizzazioni sono meglio equipaggiate per difendersi dagli enigmi della cybersecurity, che sono stati perfezionati per essere letali, di ampia portata e con un impatto sulle operation e sulla reputazione del mercato.

I CISO discutono di come i parametri della sicurezza informatica si stiano trasformando con l’introduzione dell’AI e la confluenza di leadership, prodotti sofisticati e normative che proteggono gli interessi di sicurezza delle aziende e dei suoi dipendenti.

Difese elevate, incidenze ridotte

L’aumento delle minacce informatiche alimentate dall’AI richiede ai fornitori di sicurezza di riprogettare le loro soluzioni. Rohit Singh, Associate Director per la Cyber Security & Information System di People interactive (Shaadi.com) afferma: “Le soluzioni di sicurezza dovrebbero andare oltre i sistemi statici basati su regole, sfruttando l’AI per comprendere l’intento degli attacchi e fornire risposte alle minacce su misura e ad alta sicurezza”. Sistemi come i Self-Healing Security Frameworks possono rivelarsi utili, dove gli strumenti di cybersecurity sono dotati di meccanismi di auto-riparazione, che consentono loro di riprendersi autonomamente dagli attacchi guidati dall’AI senza intervento manuale.

Nantha Ram, Responsabile per l’Engeneering e l’Automation della Cybersecurity di un’azienda globale di tecnologia e ingegneria, osserva: “Con le minacce alimentate dall’AI che diventano sempre più sofisticate, i modelli di intelligenza artificiale adattivi dovrebbero essere sfruttati per rilevare, in tempo reale, le deviazioni e gli attacchi basati su deepfake. L’AI spiegabile (XAI) aumenterà per garantire che i meccanismi di sicurezza guidati da questa tecnologia non diventino soluzioni black-box”.

PM Ramdas, CTO & Head – Cyber Security di Reliance Group, aggiunge: “Le imprese hanno bisogno di una visibilità completa sulle decisioni relative agli strumenti di sicurezza che proteggono l’infrastruttura aziendale. I fornitori devono offrire audit trail completi e funzionalità AI spiegabili che aiutino a mantenere la conformità normativa e la fiducia degli stakeholder”.

Ramdas offre un elemento importante che gli strumenti di cybersecurity dovrebbero possedere, cioè l’integrazione delle capacità di supervisione umana. “Le soluzioni devono includere interfacce e controlli intuitivi che consentano ai team di sicurezza di convalidare e annullare le decisioni dell’AI quando necessario, soprattutto durante gli incidenti critici”.

Bilanciare la cybersicurezza e l’AI

Un’implementazione efficace dell’intelligenza artificiale richiede una collaborazione strategica tra i leader della sicurezza e la C-suite, al fine di bilanciare l’innovazione con la gestione dei rischi.

Nantha Ram osserva che, dall’avvento dell’AI, la C-suite è motivata a incorporare l’innovazione guidata da essa senza soluzione di continuità, per non ostacolare gli sforzi di resilienza della cybersecurity. “Stabilire un protocollo come Zero Trust per i flussi di lavoro dell’AI assicura che la valutazione del rischio sia condotta prima di implementarne gli strumenti nei processi aziendali critici. Un impegno regolare con il consiglio di amministrazione e i leader aziendali assicura la visibilità del rischio”. Harvinder Singh Banga, CIO di CJ Darcl Logistics, nota che mentre l’AI è una tecnologia poliedrica, che aiuta in ogni frangente, dalla gestione della flotta alla previsione della domanda, la cybersicurezza ha la precedenza.

“Lavoriamo a stretto contatto con i leader aziendali, con i team IT e quelli che si occupano di gestione del rischio per bilanciare l’innovazione con la sicurezza. L’intelligenza delle minacce guidate dall’AI, il monitoraggio in tempo reale e gli audit trimestrali sulla sicurezza aiutano a mitigare i rischi, mentre i briefing regolari della C-suite assicurano decisioni informate, prevenendo i compromessi sulla sicurezza, mentre sfruttiamo l’AI per l’eccellenza operativa”.

Il PM Ramdas spiega che quando i dirigenti comprendono le implicazioni di sicurezza delle iniziative di AI diventano forti sostenitori di strategie di implementazione equilibrate e sicure. Questo approccio proattivo aiuta a costruire una cultura aziendale in cui la cybersecurity è vista come un fattore di supporto all’innovazione dell’intelligenza artificiale, piuttosto che come un ostacolo.

La fiducia nell’era del Deepfake AI

“Provare per credere” è un adagio da seguire ma, nell’era delle frodi deepfake non rilevabili e rese sempre più sofisticate dall’intelligenza artificiale, non è più così vero. Oltre alla disinformazione, le aziende possono avere impatti negativi in un contesto più legato al business, sulla reputazione e sul deficit di fiducia se il lato malvagio dell’IA non viene controllato.

Rohit Singh parla dei meccanismi “AI vs AI” per contrastare i truffatori. “Combattiamo le frodi guidate dall’AI con strumenti di rilevamento basati sull’intelligenza artificiale che analizzano le microespressioni, la tonalità vocale e le incongruenze nelle comunicazioni digitali per identificare i tentativi di deepfake in tempo reale. Utilizziamo anche l’autenticazione adattiva, come il rilevamento della vivacità, l’MFA contestuale e i furti di identità in tempo reale, per sventare i tentativi di mistificazione”.

Harvinder spiega che le frodi guidate dall’AI possono creare scompiglio, poiché la logistica si basa sul coordinamento in tempo reale tra gestori di flotte, fornitori e autisti. Dice: “Per mitigare i rischi, impieghiamo un approccio di sicurezza a più livelli, tra cui il rilevamento delle anomalie guidato dall’AI per segnalare modelli di offerte insolite e gli avvisi di geo-fencing per evitare deviazioni di trasporto non autorizzate. L’MFA e la verifica biometrica migliorano la sicurezza dell’accesso, rafforzata dalla formazione sulla sicurezza. Inoltre, abbiamo in programma per il futuro l’autenticazione vocale e video con AI e modelli adattivi di rilevamento del phishing”.

Buona AI, cattiva AI

“Il divieto di utilizzare strumenti di AI generativa nei dispositivi governativi evidenzia la necessità critica di policy organizzative solide sull’utilizzo dell’intelligenza artificiale”, sottolinea il PM Ramdas. “L’obiettivo principale deve essere quello di bilanciare l’innovazione con la protezione dei dati attraverso un approccio strutturato alla gestione degli strumenti di AI”.

Mentre la tecnologia è, ormai, un elemento fisso all’interno delle imprese, chi delinque con gli strumenti digitali sta sfruttando la precisione, l’accuratezza e la portata dell’AI per infiltrarsi nelle aziende e indebolirne le difese. La perdita di fatturato, il deficit di fiducia creato nei consumatori e il danno alla reputazione che questo può causare sono insormontabili.

“Per mitigare questo problema, Nantha Ram dichiara: “I nostri modelli di intelligenza artificiale sono sottoposti a rigorosi audit dei dati per garantirne la diversità ed eliminare i bias derivanti da insiemi di informazioni squilibrate. Garantire la diversità delle fonti aiuta i modelli a prendere decisioni imparziali. Inoltre, vengono implementate metriche di equità per evitare che diano priorità o trascurino vettori di attacco specifici”.

Il PM Ramdas sottolinea anche l’importanza di un comitato etico dell’AI con diverse parti interessate. “L’integrazione delle competenze umane nello sviluppo e nell’impiego dell’intelligenza artificiale è fondamentale. I team di sicurezza dovrebbero esaminare regolarmente le minacce segnalate dall’AI per convalidare i modelli di rilevamento e stabilire metriche di equità che aiutino a identificare precocemente le potenziali discriminazioni”.

Problemi di DeepSeek

Gli strumenti di AI open-source e liberamente disponibili, come ChatGPT e DeepSeek, sono stati un importante fattore di disturbo e la loro facilità e rapidità, sebbene allettanti per i dipendenti, rappresentano un rischio significativo per le aziende poiché possono causare violazioni della sicurezza così evidenti che una recente norma del Ministero delle Finanze indiano ha vietato questi strumenti di intelligenza artificiale sui dispositivi ufficiali, citando i rischi per la sicurezza dei dati.

I CIO sono unanimi su questo tema: non c’è spazio per strumenti di AI non autorizzati nell’ecosistema di un’organizzazione.

Per Harvinder Banga, la sicurezza di questa tecnologia è fondamentale, data la grande rete logistica di CJ Darcl. “L’utilizzo di qualsiasi strumento di intelligenza artificiale richiede un’approvazione eccezionale da parte del team di gestione e governance IT. Un ambiente sandbox AI sicuro consente di effettuare test controllati senza rischi per l’azienda. Per ridurre la dipendenza dall’intelligenza artificiale, stiamo sviluppando chatbot interni personalizzati alimentati dall’AI”.

Il PM Ramdas tiene a precisare: “Le aziende dovrebbero mantenere un elenco approvato di strumenti di AI che soddisfano i requisiti di sicurezza, definendo chiaramente i casi d’uso limitati”.

Lui e Rohit Singh sottolineano anche l’importanza di una formazione personalizzata e coerente dei dipendenti sui rischi legati all’AI, tra cui la perdita di dati e gli attacchi di tipo prompt injection, per creare una cultura consapevole della sicurezza; Rohit conclude: “Misure robuste di DLP (Data Loss Prevention) tracciano e impediscono la condivisione di dati sensibili con sistemi di AI esterni. Audit regolari assicurano la conformità alle normative in evoluzione, promuovendo al contempo l’alfabetizzazione all’intelligenza artificiale tra i dipendenti”.


Read More from This Article: Ecco come l’AI aggiunge complessità alla cybersicurezza e alle frodi
Source: News

Category: NewsApril 3, 2025
Tags: art

Post navigation

PreviousPrevious post:인터뷰 | 노스웨스트 그로서리의 ‘와우 팩터’ 활용법NextNext post:지멘스-액센추어, 제조업 혁신 위한 공동 그룹 출범··· “전문가 7,000명 고용”

Related posts

AWS-SAP, ‘공동 AI 혁신 프로그램’ 발표··· “기업 맞춤형 AI 개발 지원”
May 22, 2025
2025년 CIO 어젠더를 정의하는 5가지 질문
May 22, 2025
애플 디자인 철학, AI로 이어질까···오픈AI, 조니 아이브 기업 ‘IO’ 인수
May 22, 2025
PwCのCITO(最高情報技術責任者)が語る「CIOの魅力」とは
May 21, 2025
M&S says it will respond to April cyberattack by accelerating digital transformation plans
May 21, 2025
AI and load balancing
May 21, 2025
Recent Posts
  • AWS-SAP, ‘공동 AI 혁신 프로그램’ 발표··· “기업 맞춤형 AI 개발 지원”
  • 2025년 CIO 어젠더를 정의하는 5가지 질문
  • 애플 디자인 철학, AI로 이어질까···오픈AI, 조니 아이브 기업 ‘IO’ 인수
  • PwCのCITO(最高情報技術責任者)が語る「CIOの魅力」とは
  • M&S says it will respond to April cyberattack by accelerating digital transformation plans
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.