AUTORI

Elodie de Fontenay
Data & AI Centre of
Excellence Lead – UK-US

Federica Montefoschi
Lead Data Scientist & AI
Risk Expert @Bip xTech

Paul Gillingwater
Responsible Data & AI
Lead – Data & AI COE

Antonio Ponzio
Lead Data Scientist & AI
Risk Expert @Bip xTech

Oggi l’Intelligenza Artificiale (AI o AI) è ampiamente adottata all’interno delle organizzazioni, dalle start-up alle piccole e grandi imprese, sia nel settore privato che in quello pubblico. Un ruolo chiave all’interno del mercato è costituito ad oggi dai Cloud provider che hanno rapidamente integrato le capacità di IA all’interno dei loro servizi. I campi di applicazione dell’IA includono il marketing, la profilazione dei clienti, l’efficienza, l’ottimizzazione e l’anomaly detection.

Le principali preoccupazioni legate all’uso sfrenato dell’IA e del profiling riguardano la violazione dei diritti umani, il trattamento discriminatorio delle persone in base a sesso, età, cultura, religione, salute, e altre informazioni sensibili. A causa di questi rischi potenziali, l’UE ha deciso di avviare il processo di regolamentazione, al fine di conciliare i diritti umani e le esigenze commerciali.  L’obiettivo del regolamento è quella di istituire un quadro normativo comune per l’IA all’interno dell’UE. Il testo è frutto di un lungo lavoro preparatorio, avviato nel 2018 da un gruppo di 52 esperti di alto livello, ed è proseguito con una consultazione pubblica che ha raccolto più di 500 contributi da parte degli stakeholder per valutare punti deboli e affidabilità dei sistemi sviluppati grazie all’IA.

La proposta Artificial Intelligence Act (AI Act)

La proposta identifica tre tipi di sistemi IA basati in base al rischio potenzialmente generato.

  1. Abbiamo sistemi di IA a basso rischio, dove l’applicazione della tecnologia è considerata innocua e del tutto lecita all’interno di un contesto aziendale, come alcuni sistemi di profilazione di marketing o sistemi destinati all’ottimizzazione dei processi o per il perseguimento degli obiettivi aziendali.
  2. Poi abbiamo i sistemi IA ad alto rischio, che hanno due caratteristiche:
  • il sistema IA è destinato ad essere utilizzato come componente di sicurezza di un prodotto oppure lo stesso sistema può essere un prodotto.
  • il prodotto la cui componente di sicurezza è il sistema IA, o il sistema IA stesso, inteso come prodotto, deve essere sottoposto a una valutazione di conformità da parte di terzi.
  1. Infine, vengono identificate come “proibite” le applicazioni di IA che hanno un impatto significativo sugli individui, quali l’uso di tecniche subliminali per distorcere materialmente il comportamento in modo che causi danni fisici o psicologici, o per valutare il grado di affidabilità degli individui portando potenzialmente a un trattamento discriminatorio (es. i sistemi di identificazione biometrica in tempo reale). In questi casi sono previste dalla regolamentazione un numero esiguo di eccezioni.

Nota: una quarta categoria considerata out of scope dalla regolamentazione è l’uso di sistemi di IA in applicazioni giudiziarie, legate alla sicurezza pubblica o alla raccolta di informazioni a fini militari.

I punti chiave da rilevare

Qualsiasi sistema in grado di rappresentare un fattore di rischio per la salute e la sicurezza o i diritti fondamentali delle persone fisiche dovrà rispettare i requisiti di progettazione e sviluppo imposti dalla regolamentazione. L’AI Act detta quindi le fondamenta per l’adozione di un sistema di gestione del rischio grazie ad un processo continuo di monitoraggio dell’intero ciclo di vita di un sistema IA ad alto rischio. La regolamentazione impone infine, l’adozione delle best practice di settore per la progettazione e la realizzazione:

  • Attenzione alla qualità dei dati, alla data governance e al ciclo di vita del dato
  • Definizione di ruoli e responsabilità nella gestione del rischio e nel monitoraggio delle soluzioni.
  • Attenzione alla documentazione del sistema, alla conservazione e alla tracciabilità del dato.
  • Adozione del principio della trasparenza nella comunicazione delle linee guida agli utenti e agli organi competenti.
  • Adozione del principio “Human in the loop” secondo il quale il sistema di IA deve poter essere supervisionato da un essere umano, sotto adeguate condizioni.
  • Valutazione degli aspetti legati alla robustezza, precisione, resilienza e sicurezza della soluzione
  • Identificazione chiara dei ruoli e delle responsabilità nell’adozione dell’IA

Secondo il nostro punto di vista l’entrata in vigore della regolamentazione forzerà l’attenzione sui rischi associati all’uso dell’IA, non solo all’interno delle organizzazioni ma anche nella popolazione (utenti, consumatori o cittadini). I fruitori dei sistemi di IA chiederanno sempre più spesso di avere maggiori dettagli in merito alle scelte effettuate e al codice etico adottato nel rispetto del principio di equità nei trattamenti da parte delle organizzazioni.

Questa proposta presenta comunque grandi vantaggi dal punto di vista commerciale perché il bene commerciale più prezioso è la fiducia. Per sostenere la fiducia, le organizzazioni dovrebbero adottare veri e propri “codici di condotta per l’IA” trasformando la loro decisione in una scelta strategica per competere, continuare a servire la comunità e crescere.


Se sei interessato a saperne di più sulla nostra offerta o vuoi parlare con uno dei nostri esperti, invia un’e-mail a [email protected]  con “AI ACT Proposal” come oggetto, e sarai contattato al più presto.

Read more insights

red lines

Get in touch

Milan, Italy | BIP xTech Head Office

Torre Liberty Building
Galleria de Cristoforis 1, Milan, 20121

[email protected]

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.