Menu Chiudi

L’INTELLIGENZA ARTIFICIALE PUÒ ESSERE PERICOLOSA?


L’IA, l’apprendimento automatico, i sistemi basati su algoritmi e l’ADM stanno avanzando rapidamente

Gli algoritmi di apprendimento sono in grado di elaborare serie di dati con una precisione e una velocità superiori alle capacità umane, ecco perché le applicazioni di intelligenza artificiale (IA) sono diventate sempre più comuni in tutti i settori: dalla finanza alla salute, dall’istruzione al sistema giuridico, e oltre. Ma affidarsi all’intelligenza artificiale comporta dei rischi, specialmente quando questa ha la facoltà di prendere decisioni senza la supervisione umana. L’apprendimento automatico (noto in inglese come machine learning) si basa sul riconoscimento di modelli (tecnicamente chiamati pattern) all’interno di set di dati. I dati forniti dagli uomini alle macchine possono però riflettere pregiudizi sociali, e in quel caso l’intelligenza artificiale incorporerà gli stessi pregiudizi nel proprio processo decisionale.

L’intelligenza artificiale nei processi decisionali

L’intelligenza artificiale viene utilizzata sempre di più nella progettazione di algoritmi decisionali. Le decisioni prese dagli algoritmi possono avere un impatto significativo nella vita dei cittadini: dalla concessione di credito, all’ottenimento di un lavoro o di cure mediche fino ad influire sull’esito di sentenze giudiziarie.

In alcuni casi i processi decisionali automatizzati rischiano di perpetuare il divario sociale. Alcuni algoritmi, ad esempio, si sono dimostrati discriminatori nei confronti delle donne: si tratta di sistemi di intelligenza artificiale utilizzati negli uffici risorse umane di alcune aziende che a causa di distorsioni storiche nei dati che utilizzano per elaborare una decisione – privilegiano le assunzioni (o le promozioni) maschili rispetto a quelle femminili.

Un circuito elettronico di intelligenza artificiale in 3D. La commissione per la protezione dei consumatori e del mercato interno del Parlamento giovedì 23 gennaio ha approvato una risoluzione che affronta diverse sfide derivanti dal rapido sviluppo delle tecnologie di intelligenza artificiale (AI) e di processo decisionale automatizzato (ADM). Lo sviluppo dei processi decisionali automatizzati presenta delle sfide per la tutela dei consumatori.  La Commissione ha annunciato che dovrebbe presentare i suoi piani per un approccio europeo all’IA il 19 febbraio 2020. ©Vchalup/Adobe Stock.

Proteggere i consumatori nell’era dell’intelligenza artificiale

Lo sviluppo dell’intelligenza artificiale e dei processi decisionali automatizzati presenta delle sfide anche per la fiducia e il benessere dei consumatori: quando interagiscono con questi sistemi, i consumatori dovrebbero essere adeguatamente informati sul loro funzionamento, per poter prendere decisioni consapevoli sul loro utilizzo.

«Dobbiamo assicurarci che la protezione e la fiducia dei consumatori venga garantita, che le norme dell’UE in materia di sicurezza e responsabilità su prodotti e servizi siano adeguate all’era digitale», ha detto Petra De Sutter, (Verts / ALE, BE), Presidente della Commissione per il mercato interno e la protezione dei consumatori

Così la commissione per la protezione dei consumatori e del mercato interno del Parlamento giovedì 23 gennaio ha approvato una risoluzione che affronta diverse sfide derivanti dal rapido sviluppo delle tecnologie di intelligenza artificiale (AI) e di processo decisionale automatizzato (ADM).

Questa risoluzione prevede che la Commissione per il mercato interno e la protezione dei consumatori valuti la necessità di attuare misure supplementari per garantire una tutela solida dei diritti dei consumatori nell’ambito dell’intelligenza artificiale e dei sistemi decisionali automatizzati, che dovrà chiarire come prevede di:

  • garantire la protezione dei consumatori da pratiche commerciali sleali e/o discriminatorie, o da rischi derivanti da servizi commerciali di intelligenza artificiale;
  • garantire maggiore trasparenza in questi processi;
  • assicurare che soltanto dati non discriminatori e di alta qualità vengano utilizzati nei sistemi decisionali automatizzati.

Quando i consumatori interagiscono con un sistema ADM, dovrebbero essere “adeguatamente informati su come funziona, su come raggiungere un essere umano con poteri decisionali e su come le decisioni del sistema possono essere controllate e corrette”, afferma il comitato facendo eco alle parole della De Sutter

Tali sistemi dovrebbero utilizzare solo set di dati imparziali e di alta qualità e “algoritmi spiegabili e imparziali” al fine di rafforzare la fiducia e l’accettazione dei consumatori, afferma la risoluzione. Dovrebbero essere istituite strutture di revisione per porre rimedio a possibili errori nelle decisioni automatizzate. Dovrebbe anche essere possibile per i consumatori chiedere la revisione umana e il ricorso a decisioni automatizzate che siano definitive e permanenti. “Gli esseri umani devono sempre essere in ultima analisi responsabili e in grado di prevalere sulle decisioni” che vengono prese attraverso i processi ADM, in particolare in relazione alle professioni mediche, legali e contabili e al settore bancario, sottolineano i deputati.

Adeguare le norme di sicurezza e responsabilità alle nuove tecnologie

I prodotti abilitati per l’IA possono evolversi e agire in modi non previsti al momento della loro prima immissione sul mercato. I deputati esortano la Commissione a presentare proposte per adattare le norme di sicurezza dell’UE per i prodotti (ad esempio le direttive sulle macchine e la sicurezza dei giocattoli) per garantire che i consumatori siano protetti dai danni, i produttori siano chiari sui loro obblighi e gli utenti siano informati sull’uso di tali prodotti. La direttiva sulla responsabilità da prodotto, adottata oltre 30 anni fa, dovrebbe anche essere aggiornata per adattare concetti quali “danno” e “difetto” del prodotto, nonché le norme che regolano l’onere della prova, afferma il comitato.

I deputati chiedono uno schema di valutazione del rischio per AI e ADM e un approccio comune dell’UE per aiutare a garantire i benefici di tali processi e mitigare i rischi in tutta l’UE

Verifica prezzi differenziati e discriminazione

In base al diritto dell’UE, gli operatori economici devono informare i consumatori quando il prezzo dei beni o dei servizi è stato personalizzato sulla base dell’ADM, ricordano gli eurodeputati, chiedendo alla Commissione di monitorare attentamente l’attuazione di tali norme. Deve inoltre verificare in che modo viene applicato il regolamento UE che vieta i blocchi geografici ingiustificati per garantire che l’ADM non venga utilizzato per discriminare i consumatori in base alla loro nazionalità, luogo di residenza o luogo temporaneo.

“La tecnologia nel campo dell’intelligenza artificiale e del processo decisionale automatizzato sta avanzando a un ritmo straordinario. Oggi il comitato ha accolto con favore il potenziale di questi progressi, sottolineando allo stesso tempo tre importanti questioni che devono essere affrontate. Dobbiamo assicurarci che sia garantita la protezione e la fiducia dei consumatori, che le norme dell’UE in materia di sicurezza e responsabilità per prodotti e servizi siano idonee allo scopo nell’era digitale e che i set di dati utilizzati nei sistemi decisionali automatizzati siano di alta qualità e sono imparziali ”, ha concluso la De Sutter.

Prossimi passi

La risoluzione, approvata in commissione con 39 voti favorevoli, nessuno contrario e quattro astensioni, sarà votata dall’intera Camera in una prossima sessione plenaria e alimenterà ulteriormente il lavoro del Parlamento su questo argomento. Dopo la votazione in Aula, la risoluzione sarà trasmessa al Consiglio dell’UE (Stati membri) e alla Commissione, in modo tale da tener conto delle opinioni dei deputati su AI e ADM. La Commissione ha annunciato che dovrebbe presentare i suoi piani per un approccio europeo all’IA il 19 febbraio 2020.



Scopri di più da WHAT U

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Content is protected !!

Scopri di più da WHAT U

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere