Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

L’AI Act tra innovazione e tutela dei consumatori

Gli eurodeputati del Parlamento europeo hanno approvato una prima bozza del regolamento sull’uso dell’IA. Con questo passaggio, l’AI Act [in tedesco] compie un importante nuovo passo, prima di essere discussa ed elaborata dai singoli Stati membri. Alla fine del percorso, prenderanno forma diverse leggi applicabili in tutta l’UE destinate a regolamentare l’utilizzo delle tecnologie di IA, quali ChatGPT [in tedesco].

In sostanza, la legge sull’IA consiste nel raggruppare i sistemi di intelligenza artificiale in diverse classi di rischio. Si va dai sistemi a rischio minimo fino a quelli ad alto rischio o che dovranno essere completamente vietati. Soprattutto quando si tratta di decisioni a carico di un sistema di IA che hanno conseguenze sulla vita degli esseri umani, dovranno essere applicati standard particolarmente restrittivi. Ciò riguarda, in particolare, la trasparenza dei dati con cui un’IA viene addestrata per prendere decisioni, e per il funzionamento dei relativi. In questo modo, i politici dell’UE vogliono garantire che tali applicazioni funzionino in modo sicuro e affidabile e non violino i diritti umani fondamentali.

Tuttavia, fino a quando non sarà stato definito un insieme di regole, probabilmente, ci saranno molte discussioni all’interno dei vari organi dell’UE. Al momento, non è possibile individuare una linea uniforme. Paesi come l’Italia hanno recentemente adottato una posizione più severa e hanno vietato lo strumento di IA generativa ChatGPT di Open AI [in tedesco]. Il motivo: l’impossibilità di poter controllare l’età degli utenti, e la possibile violazione del copyright dei dati che vengono utilizzati per l’addestramento dell’applicazione. Successivamente, le autorità italiane sono tornate sui loro passi, rendendo nuovamente consentito l’uso di ChatGPT, seppure a determinate condizioni.

Gli altri Paesi dell’UE hanno seguito con grande interesse la mossa delle autorità italiane per la protezione dei dati. Anche in Germania si è levata la voce che ChatGPT dovrebbe essere vietato qualora si potesse dimostrare che lo strumento viola le norme vigenti in materia di protezione dei dati.

Troppa regolamentazione ostacola l’innovazione

Definire una serie di regole per l’utilizzo dell’intelligenza artificiale non sarà probabilmente facile. Le posizioni sono molto distanti. Mentre i sostenitori dei consumatori chiedono regole severe che proteggano i diritti dei cittadini, i rappresentanti delle imprese avvertono che una regolamentazione troppo restrittiva della tecnologia potrebbe soffocare ulteriori innovazioni. Secondo i sostenitori di un’interpretazione meno rigida dell’AI Act, l’UE potrebbe perdere un’importante industria del futuro.

In una lettera aperta [Pdf, in tedesco], i membri del Large Scale Artificial Intelligence [in inglese] Open Network (LAION e.V.) hanno invitato i politici dell’UE a procedere con moderazione nella regolamentazione dell’IA. Accolgono con favore l’intenzione di introdurre una supervisione dell’intelligenza artificiale. Tuttavia, tale controllo deve essere attentamente calibrato per proteggere la ricerca e lo sviluppo e per mantenere la competitività dell’Europa nel campo dell’IA. Tra i firmatari figurano Bernhard Schöllkopf, direttore dell’Istituto Max Planck per i sistemi intelligenti di Tubinga, e Antonio Krüger, direttore del Centro di ricerca tedesco per l’intelligenza artificiale [in tedesco] (DFKI).

Soprattutto, i modelli di IA open-source [in tedesco] non dovrebbero essere eccessivamente regolamentati, chiede LAION, poiché essi, in particolare, consentono una maggiore trasparenza e sicurezza nel suo utilizzo. Inoltre, l’intelligenza artificiale open-source potrebbe impedire a poche aziende di controllare e dominare la tecnologia. In questo modo, una regolamentazione moderata contribuirebbe a far progredire la sovranità digitale dell’Europa.

Troppa poca regolamentazione indebolisce i diritti dei consumatori

Al contrario, la Federazione delle organizzazioni dei consumatori tedeschi (vzbv) [in tedesco] chiede maggiori diritti. Secondo una sua dichiarazione, in futuro, le decisioni degli utenti saranno sempre più influenzate da sistemi di raccomandazione basati sull’intelligenza artificiale, come ChatGPT. Per escludere i rischi dell’IA generativa, la prevista AI Act deve garantire diritti forti ai consumatori, e la possibilità di una valutazione indipendente dei rischi.

“Il rischio che i sistemi di intelligenza artificiale portino a raccomandazioni di acquisto, valutazioni e informazioni errate o manipolate è elevato. L’intelligenza artificiale [in tedesco] non è sempre così intelligente come promette il suo nome”, ha dichiarato Ramona Pop, direttore esecutivo del vzbv. Le conseguenze potrebbero essere gravi. “È necessario garantire che i consumatori siano adeguatamente protetti contro la manipolazione, l’inganno e la frode, per esempio da parte dei sistemi di raccomandazione controllati dall’intelligenza artificiale. L’accesso ai sistemi per valutarne i rischi e il funzionamento deve essere consentito a scienziati indipendenti”.

“Abbiamo bisogno di diritti individuali delle persone interessate da far valere nei confronti degli operatori di IA”, ha proseguito Pop. Le persone devono avere la facoltà di correzione e cancellazione se, per esempio, sistemi come ChatGPT causano svantaggi danneggiando la loro reputazione”. Le richieste del vzbv: L’AI Act deve garantire che le applicazioni di intelligenza artificiale rispettino le leggi europee e siano conformi ai valori europei.

Valutazione dei rischi: l’autovalutazione da parte dei produttori non è sufficiente

TÜV ha un’opinione simile [in tedesco]. Sebbene l’associazione TÜV accolga con favore, in linea di principio, il fatto che i gruppi politici del Parlamento europeo siano riusciti a concordare una posizione comune per la legge sull’intelligenza artificiale, vede un ulteriore potenziale di miglioramento. “Sono necessarie basi giuridiche chiare per proteggere le persone dalle conseguenze negative della tecnologia e allo stesso tempo per promuovere l’uso dell’IA nell’economia”, ha dichiarato Joachim Bühler, CEO dell’associazione TÜV.

Bühler chiede che venga garantito il rispetto delle specifiche, soprattutto per quanto riguarda la trasparenza degli algoritmi. Tuttavia, un audit indipendente è previsto solo per una piccola parte dei sistemi di IA ad alto rischio. “La maggior parte delle applicazioni di IA critiche, come il riconoscimento facciale, il software di reclutamento o il controllo della solvibilità, potranno continuare a essere immesse sul mercato con una semplice autodichiarazione del produttore”, critica l’uomo del TÜV. Inoltre, la classificazione come applicazione ad alto rischio si baserà in parte su un’autovalutazione da parte dei fornitori. “Gli errori di valutazione sono inevitabili”, conclude Bühler.

Secondo il TÜV, sarebbe meglio far controllare tutti i sistemi di intelligenza artificiale ad alto rischio da un ente indipendente prima di immetterli sul mercato. Questo è l’unico modo per garantire che le applicazioni soddisfino i requisiti di sicurezza. “Ed è particolarmente vero quando le applicazioni di IA sono utilizzate in aree critiche come la medicina, i mezzi di trasporto, le infrastrutture energetiche o alcuni macchinari per la produzione”, afferma Bühler.

Mentre le discussioni sulla regolamentazione dell’IA sono in pieno svolgimento, i ministri del digitale del G7 si sono espressi a favore dell’accompagnamento del rapido sviluppo dell’intelligenza artificiale con regole e standard chiari [in tedesco] in occasione di un incontro a Takasaki, in Giappone, alla fine di aprile. Secondo una dichiarazione del Ministero federale degli Affari digitali e dei Trasporti (BMDV), questi dovrebbero garantire a livello internazionale che l’IA sia utilizzata a beneficio delle persone e non per manipolare le opinioni e minare i valori democratici.

Il ministro del Digitale Wissing: “L’IA deve servirci, non manipolarci”.

“Nel gruppo dei G7 siamo d’accordo sulla necessità di agire rapidamente nella regolamentazione dell’intelligenza artificale”, ha dichiarato il ministro del Digitale Volker Wissing. “L’IA generativa ha un potenziale immenso per aumentare la nostra produttività e migliorare le nostre vite. Può aiutare a trovare soluzioni a problemi complessi, per esempio in medicina o per la tutela del clima”. Per questo è ancora più importante che le principali democrazie siano all’avanguardia e accompagnino lo sviluppo con regole intelligenti che proteggano le persone da abusi e manipolazioni. “L’intelligenza artificiale [in tedesco] dovrebbe servirci, non manipolarci.

Tuttavia, è lecito chiedersi se ciò avverrà con la rapidità auspicata dall’esponente dell’FDP Wissing. Bruxelles sta lavorando con l’AI Act dall’aprile 2021. Dopo l’accordo del Parlamento europeo, i negoziati a tre tra Consiglio, Parlamento e Commissione potrebbero iniziare nell’estate del 2023. Il momento in cui sarà possibile stabilire un insieme definitivo di norme e convertirlo in una legge applicabile è ancora lontano. È anche lecito chiedersi se per allora lo sviluppo tecnologico dell’IA avrà già superato da tempo tutti i tentativi di regolamentazione dell’IA.

Artificial Intelligence, Government, Regulation
Read More from This Article: L’AI Act tra innovazione e tutela dei consumatori
Source: News

Category: NewsMay 26, 2023
Tags: art

Post navigation

PreviousPrevious post:Stepping up to the challenge of a global conglomerate CIO roleNextNext post:With the new financial year looming, now is a good time to review your Microsoft 365 licenses

Related posts

Las funciones de CDO y CAIO podrían tener una fecha de caducidad intrínseca
May 12, 2025
AWS offers glimpse of what CIOs can do with Amazon Q Business
May 12, 2025
개발자 대체 아니다··· 생성형 AI, 소프트웨어 리더의 역할을 재편 중
May 12, 2025
Horizonte 2027: el 89% de los CEO españoles confía en obtener un retorno positivo de la IA en eficiencia
May 12, 2025
칼럼 | 생성형 AI 비즈니스의 붕괴?
May 12, 2025
“곧 사라질 직책 vs 기업의 미래 축”··· CDO·CAIO를 두고 갈리는 전문가 진단
May 12, 2025
Recent Posts
  • Las funciones de CDO y CAIO podrían tener una fecha de caducidad intrínseca
  • AWS offers glimpse of what CIOs can do with Amazon Q Business
  • 개발자 대체 아니다··· 생성형 AI, 소프트웨어 리더의 역할을 재편 중
  • Horizonte 2027: el 89% de los CEO españoles confía en obtener un retorno positivo de la IA en eficiencia
  • 칼럼 | 생성형 AI 비즈니스의 붕괴?
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.