Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

Quanto ci si può fidare, oggi, dell’Agentic AI?

Le imprese stanno implementando l’Agentic AI a un ritmo rapido, ma secondo molti esperti i seri dubbi sulla sua accuratezza fanno intravvedere potenziali disastri all’orizzonte.

L’assunto di base è che, sebbene gli agenti AI abbiano bisogno di autonomia decisionale per fornire il massimo valore, molti esperti di intelligenza artificiale li vedono ancora come scatole nere che rendono invisibile il ragionamento che alla base delle loro azioni.

Questa mancanza di trasparenza nel processo decisionale crea un potenziale ostacolo alla piena implementazione degli agenti come strumenti autonomi che possano produrre le grandi efficienze, che ci si aspetta da loro, affermano.

Le preoccupazioni in materia di fiducia espresse da molti professionisti dell’AI non sembrano, tuttavia, raggiungere i potenziali utenti, dato che sono sempre più numerose le imprese che introducono gli agenti al loro interno.

Secondo un sondaggio [in inglese] pubblicato lo scorso ottobre dal marketplace di software G2, circa il 57% delle aziende B2B ha già messo in produzione gli agent e diverse società di analisi IT stimano un’enorme crescita del mercato degli nei prossimi anni. Per esempio, Grand View Research [in inglese] prevede un tasso di crescita annuale composto di quasi il 46% tra il 2025 e il 2030.

Molte aziende che utilizzano agenti non comprendono ancora quanto questi possano essere opachi senza le giuste misure di sicurezza, suggeriscono gli esperti. E, anche se vengono introdotte misure di protezione, la maggior parte degli strumenti attuali non è ancora sufficiente a impedire comportamenti scorretti da parte loro.

Incompresi e utilizzati in modo improprio

I diffusi malintesi sul ruolo e la funzionalità degli agenti [in inglese] potrebbero frenare lo sviluppo della tecnologia, osserva Matan-Paul Shetrit [in inglese], direttore della gestione dei prodotti presso la piattaforma di creazione di agenti Writer. Molte organizzazioni considerano gli agent simili a semplici chiamate API, con risultati prevedibili, mentre gli utenti dovrebbero trattarli più come stagisti junior, spiega.

“Come questi ultimi, hanno bisogno di determinate misure di sicurezza, a differenza delle API, che sono relativamente semplici da controllare”, aggiunge Shetrit. “Controllare uno stagista è in realtà molto più difficile, perché può causare danni consapevolmente o inconsapevolmente e può accedere o fare riferimento a informazioni che non dovrebbe”.

Una delle principali sfide per gli sviluppatori di agenti AI e per le aziende che li utilizzano sarà quella di gestirli, afferma.

“È facile immaginare che un’impresa di 1.000 persone distribuisca 10.000 agenti”, sostiene Shetrit. “E che, di conseguenza, diventi un’azienda di 11.000 ‘persone’, e diventi quindi molto diversa da gestire”.

Per le grandi società come le banche, la popolazione di agenti potrebbe raggiungere nel tempo le 500.000 unità, ipotizza Shetrit: una situazione che richiederebbe approcci completamente nuovi alla gestione delle risorse organizzative e all’osservabilità e alla supervisione IT.

“Ciò richiede un ripensamento dell’intera struttura organizzativa e del modo di fare business”, tiene a precisare. “Finché noi, come industria, non risolveremo questo problema, non credo che la tecnologia degli agenti si diffonderà e verrà adottata in modo tale da mantenere le promesse degli agenti”.

Molte organizzazioni che implementano agenti non si rendono ancora conto che c’è un problema da risolvere, aggiunge Jon Morra [in inglese], Chief AI Officer presso il fornitore di tecnologia pubblicitaria Zefr.

“Non è ben chiaro nello spirito del tempo quanti problemi di fiducia ci siano con gli agent”, sottolinea Morra. “L’idea degli agenti di AI è ancora relativamente nuova per le persone e spesso sono una soluzione che necessita di un problema”.

In molti casi, sostiene Morra, è possibile implementare una tecnologia più semplice e deterministica al posto di un agente. Molte organizzazioni che implementano i modelli linguistici di grandi dimensioni (LLM) che alimentano gli agenti sembrano ancora non avere una comprensione di base dei rischi, dice.

“Le persone hanno troppa fiducia in questi strumenti, in questo momento, e questo sta ritorcendo contro di loro”, rileva. “Ho partecipato a diverse chiamate in cui le persone che utilizzano gli LLM mi hanno chiesto: ‘Jon, hai mai notato che sbagliano i calcoli matematici o a volte inventano le statistiche?’. E io ho risposto: ‘Sì, succede’”.

Mentre molti esperti vedono migliorare la fiducia negli agenti nel lungo termine con il miglioramento dei modelli di intelligenza artificiale, Morra ritiene che una fiducia completa non sarà mai garantita perché l’AI avrà sempre il potenziale di generare hallucination [in inglese].

Gli attriti nel flusso di lavoro dovuto alla sfiducia nell’autonomia

Mentre Morra e Shetrit ritengono che gli utenti dell’AI non comprendano la questione della trasparenza degli agenti, il rapporto di ricerca di G2 rileva una crescente fiducia negli agenti per l’esecuzione di alcune attività, come il blocco automatico di IP sospetti o il rollback di distribuzioni software non riuscite, anche se il 63% degli intervistati sostiene che i propri agenti necessitano di una supervisione umana maggiore del previsto. Meno della metà degli intervistati afferma di fidarsi degli agenti in generale per prendere decisioni autonome, anche con l’adozione di misure di sicurezza, e solo l’8% si sente a proprio agio nel concedere agli agenti la totale autonomia.

Tim Sanders [in inglese], Chief Innovation Officer di G2, non è d’accordo con alcune delle avvertenze: ritiene che la mancanza di fiducia negli agenti sia un problema più grave della mancanza di trasparenza nella tecnologia. Sebbene la sfiducia nei confronti di una nuova tecnologia sia naturale, la promessa degli agenti risiede nella loro capacità di agire senza l’intervento [in inglese] umano, dice.

Il sondaggio mostra che quasi la metà di tutte le aziende B2B sta acquistando agenti ma non sta concedendo loro una reale autonomia, osserva. “Ciò significa che gli esseri umani devono valutare e poi approvare ogni azione”, commenta Sanders. “E questo sembra vanificare l’intero scopo dell’adozione degli agenti a fini di efficienza, produttività e velocità”.

Questo divario di fiducia potrebbe essere costoso per le organizzazioni che sono troppo caute con gli agenti, sostiene. “Perdono miliardi di dollari di risparmi sui costi perché hanno troppe persone coinvolte nel processo, creando un collo di bottiglia all’interno dei flussi di lavoro degli agenti”, spiega Sanders. “La fiducia è difficile da conquistare e facile da perdere. Tuttavia, la promessa economica e operativa degli agenti sta effettivamente spingendo i leader aziendali orientati alla crescita ad estendere la fiducia piuttosto che a ritirarsi”.

Cura necessaria

Altri esperti di AI avvertono i leader IT aziendali di prestare attenzione quando implementano gli agenti, dato il problema di trasparenza che i fornitori di intelligenza artificiale devono ancora risolvere.

Tamsin Deasey-Weinstein [in inglese], leader della task force per la trasformazione digitale dell’AI delle Isole Cayman, riconosce che la tecnologia funziona al meglio con un essere umano nel ciclo e con una governance rigorosa, ma molti agenti sono troppo poco controllati.

“Sebbene siano straordinari perché eliminano l’intervento umano, questo li rende anche estremamente pericolosi”, argomenta Deasey-Weinstein. “Stiamo vendendo la prospettiva di agenti autonomi quando in realtà ciò che abbiamo sono disastri in agguato senza rigorosi sistemi di protezione”.

Per combattere questa mancanza di trasparenza [in inglese], raccomanda di limitare l’ambito di applicazione degli agenti.

“Quelli che sono più affidabili hanno capacità noiosamente limitate”, ritiene Deasey-Weinstein. “Più ampio e libero è il margine di manovra dell’agente, più il risultato può essere errato. Gli agenti più affidabili hanno compiti piccoli e chiaramente definiti e misure di sicurezza molto rigorose”.

Riconosce, tuttavia, che l’implementazione di agenti altamente mirati potrebbe non essere allettante per alcuni utenti. “Questo non è né vendibile né attraente per il consumatore sempre esigente che vuole più lavoro svolto in meno tempo e con meno competenze”, indica. “Ricordate solo che se il vostro agente AI può scrivere ogni e-mail, toccare ogni documento e intervenire su ogni API, senza alcun intervento umano, avete qualcosa su cui non avete alcun controllo. La scelta è vostra”.

Molti esperti di intelligenza artificiale ritengono, inoltre, che gli agenti autonomi siano più adatti a prendere decisioni a basso rischio. “Se una decisione influisce su libertà, salute, istruzione, reddito o sul futuro di qualcuno, l’intelligenza artificiale dovrebbe solo fornire assistenza”, avverte Deasey-Weinstein. “Ogni azione deve essere spiegabile, e con l’AI non lo è”.

Dopodiché, raccomanda di studiare framework quali i Principi dell’OCSE sull’IAI e il NIST AI Risk Management Framework statunitense come guide per aiutare le aziende a comprendere i rischi dell’intelligenza artificiale.

Osservare e orchestrare

Altri professionisti dell’intelligenza artificiale indicano la pratica emergente dell’osservabilità come soluzione al comportamento scorretto degli agenti, anche se altri sostengono che gli strumenti per svolgere questo tipo di attività da soli potrebbero non essere in grado di diagnosticare i problemi di un agente.

Le società che utilizzano agent possono anche implementare un livello di orchestrazione [in inglese] che gestisce il ciclo di vita, la condivisione del contesto, l’autenticazione e, appunto, l’osservabilità, afferma James Urquhart [in inglese], CTO di Kamiwaza AI.

Come Deasey-Weinstein, Urquhart sostiene che gli agenti dovrebbero avere ruoli limitati e paragona l’orchestrazione a un arbitro che può supervisionare un team di agenti specializzati. “Non utilizzate un unico agente ‘tuttofare’”, precisa. “Trattate gli agenti come una squadra di meccanici e non come un coltellino svizzero”.

L’AI ha un problema di fiducia, ma si tratta di una questione che ha a che fare con l’architettura, sostiene.

“La maggior parte delle aziende oggi è in grado di mettere in piedi un agente, ma pochissime sono in grado di spiegare, limitare e coordinare uno sciame”, conclude. “Si crea più caos se non si dispone di un piano di controllo che renda possibili la scalabilità, la sicurezza e la governance”.


Read More from This Article: Quanto ci si può fidare, oggi, dell’Agentic AI?
Source: News

Category: NewsNovember 20, 2025
Tags: art

Post navigation

PreviousPrevious post:“군대식 규율부터 기업형 혁신까지“ 미국 주정부 CIO 3인의 리더십NextNext post:“2027년 고객 문의 50% AI 자동화 전망… 데이터 통합 시 AI 효과 1.4배 상승” 세일즈포스 보고서

Related posts

Germany’s sovereign AI hope changes hands
April 24, 2026
What Google’s “unified stack” pitch at Cloud Next ‘26 really means for CIOs
April 24, 2026
CIO ForwardTech & ThreatScape Spain radiografía las tendencias tecnológicas y de ciberseguridad en 2026
April 24, 2026
The AI architecture decision CIOs delay too long — and pay for later
April 24, 2026
La relación entre el CIO y el CISO, a examen: ¿por fin se ha roto la frontera entre innovación y seguridad?
April 24, 2026
CIOs struggle to find clarity in their organizations’ AI strategies
April 24, 2026
Recent Posts
  • Germany’s sovereign AI hope changes hands
  • What Google’s “unified stack” pitch at Cloud Next ‘26 really means for CIOs
  • CIO ForwardTech & ThreatScape Spain radiografía las tendencias tecnológicas y de ciberseguridad en 2026
  • The AI architecture decision CIOs delay too long — and pay for later
  • La relación entre el CIO y el CISO, a examen: ¿por fin se ha roto la frontera entre innovación y seguridad?
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.