IA-responsabilità nella Value Chain

Scienza & Tecnologia

Di

Sono ben noti e riportati da più voci gli indubbi vantaggi dell’Intelligenza Artificiale (IA), in primis per una migliore assistenza sanitaria, quindi per trasporti sicuri e più green, per una produzione più efficiente con livelli di impiego di energia più sostenibili. Ma l’efficacia e l’efficienza dell’intera catena del valore, supportata da IA, ai fini di vantaggi competitivi certi, possono forse portare ad aberrazioni se con un uso indiscriminato di IA.
In numeri: 1 miliardo di euro è quello che la Commissione europea prevede di investire all’anno nell’IA grazie ai programmi Europa Digitale e Orizzonte Europa; 20 miliardi di Euro gli investimenti totali annui che prevede di attrarre in questo decennio, il dispositivo delle ripresa e la resilienza contribuiranno ad accelerare gli investimenti andando oltre tale obiettivo.
L’UE sta mettendo a punto il primo insieme di norme giuridiche al mondo sull’IA, in modo da gestire le opportunità e i rischi collegati e divenire il punto di riferimento globale.
Il 14 giugno ha abbozzato la propria posizione normativa con l’AI ACT. I sistemi di IA in uso nell’UE devono essere sicuri, trasparenti, tracciabili e non discriminatori, quindi sono state abbozzate regole differenziate per i fornitori e per l’utenza a seconda dei livelli di rischio associati.
È nelle intenzioni dell’UE far si che i sistemi di IA debbano essere supervisionati da esseri umani, anziché dall’automazione, per evitare conseguenze incresciose. Inoltre tali sistemi saranno vietati quando rappresenteranno una minaccia, cioè quando si potrà profilare una possibile manipolazione comportamentale cognitiva di individui o gruppi vulnerabili,  oppure una classificazione degli stessi, con identificazione biometrica in tempo reale e a distanza. Potranno invece essere ammessi i sistemi di identificazione biometrica a posteriori e a distanza, cioè saranno consentiti per perseguire reati gravi e previa autorizzazione di un tribunale.
Anche ChatGPT dovrà rispettare i requisiti di trasparenza. Invece, là dove il rischio è limitato, vi saranno requisiti minimi per i sistemi di IA e ovviamente l’obbligo di trasparenza, per consentire all’utenza decisioni informate. Si, gli utenti dovranno essere informati quando interagiscono con l’IA per decidere se continuare o meno ad utilizzare tali applicazioni.
Quindi il Parlamento Europeo, dopo la prima bozza normativa definita durante la sessione plenaria del 14 giugno scorso, proseguirà i negoziati con i paesi dell’UE per la stesura finale della legge.
Si vuol correre ai ripari perché la pervasività dell’IA nelle nostre vite non debba travalicare confini ben definiti. In realtà produttive sempre più estese a livello globale, l’IA può essere implementata in tutti i processi primari e di supporto dell’intera catena del valore di un prodotto o servizio e ciò solleva anche importanti considerazioni non solo in termini di valore creato, percepito e realizzato nel mercato, ma in termini etici.
Tra le altre considerazioni etiche quella sull’accountability: le decisioni prese dall’IA dovranno essere comprensibili e giustificabili in modo che sia possibile determinare il responsabile in caso di danni causati da un dispositivo o servizio azionato dall’IA.
Ad esempio, nel caso di un incidente in cui sia coinvolta un’auto a guida autonoma, i danni graveranno sul proprietario o sul costruttore  o sul programmatore? Se per il produttore si dovesse escludere ogni responsabilità, vi potrebbero non essere incentivi sufficienti affinché fornisca un prodotto sicuro ed efficiente e il mercato avrebbe meno fiducia nella tecnologia. Ma allo stesso tempo norme troppo severe potrebbero imbrigliare l’innovazione.
Indubbiamente i risultati dell’IA dipendono da come è stata progettata, quindi dai dati immessi. Riguardo ai rischi di Bias cognitivi e quindi di discriminazione, l’IA può ereditare o amplificare i pregiudizi presenti nei dati utilizzati per addestrarla. Tale processo può essere stato influenzato intenzionalmente, individuando alcuni aspetti importanti che non debbano essere programmati nell’algoritmo di apprendimento o debbano invece riflettere e perpetuare delle distorsioni strutturali.
Ad esempio l’IA, se non programmata adeguatamente, può generare decisioni riguardo ad una offerta di lavoro, di prestiti e anche nei procedimenti penali, influenzate dall’etnia, dal genere, dall’età. Osserviamo anche che l’uso dei dati e della matematica potrebbe far sembrare l’IA fattuale, precisa e indipendente, neutrale, anche quando non lo è, il cosiddetto effetto “math-washing”.
Pertanto i processi di addestramento dovranno essere inclusivi, diversificati e revisionati periodicamente.
Riguardo alla privacy da tutelare , alla sicurezza dei dati, come già accennato, una minaccia per la protezione dei dati e del diritto alla vita privata si ha ad esempio in dispositivi per il riconoscimento facciale o per la profilazione online. Inoltre l’IA è in grado di mettere insieme informazioni acquisite su una persona senza che ne sia a conoscenza.
E così via i rischi continuano, dalla creazione di bolle in rete, alla possibile polarizzazione del dibattito pubblico e alla manipolazione delle elezioni.
Non ultima, una problematica critica riguarda l’impatto sull’occupazione, tappa di ogni processo innovativo, che in questa circostanza potrebbe essere devastante se non adeguatamente supportata nella riconversione delle competenze e quindi delle vite lavorative di un gran numero di professionisti in vari settori. L’UE ha annunciato che vaglierà tutti gli aspetti critici.
Un obiettivo che non dovrebbe mai essere perso di vista è quello di progettare l’IA per supportare le decisioni umane e non per sostituirle.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Traduci
Facebook
Twitter
Instagram
YouTube