Menu Chiudi

L’INTELLIGENZA ARTIFICIALE PUÒ ESSERE UNA RISORSA SENZA INDIVIDUALISMI E CON REGOLE CONDIVISE


Nell’ultimo anno, l’intelligenza artificiale ha fatto passi da leone. Tuttavia, allo stesso tempo, è stata stigmatizzata come una minaccia da alcune categorie professionali, come gli operatori del settore dello spettacolo e dell’editoria. Gli autori, infatti, temono di venire presto soppiantati da questa tecnologia, mentre gli artisti paventano il rischio di essere clonati digitalmente senza i loro preventivo consenso, rischiando così di incorrere in versioni deepfake di se stessi o della propria voce, come successo recentemente all’attore americano Tom Hanks, al rapper Bad Bunny e non solo.

La comunità tecnologica dibatte da tempo su queste minacce che non riguardano soltanto una possibile automazione dei posti di lavoro, ma anche la diffusione di notizie false che potrebbero causare danni molto seri. Si tratta di un rischio concreto anche in Italia? Si possono tutelare le proprie caratteristiche fisiche come la voce e i connotati? L’Italia offre una protezione diversa rispetto agli USA?

 “In Italia e in Europa le leggi vigenti sul diritto d’autore sono diverse rispetto agli Stati Uniti”, spiega Lydia Mendola, partner di Portolano Cavallo. Nel nostro paese esiste il cosiddetto diritto all’immagine, secondo il quale, per poter ritrarre legittimamente una persona e usarne l’immagine, occorre – salvo eccezioni – ottenere il consenso del soggetto ritratto. Il diritto all’immagine tutelato dal diritto italiano ha una doppia natura: è sia un diritto della personalità (tutela la dignità, l’onore e la riservatezza della persona) sia un diritto patrimoniale azionabile quando l’immagine è usata a scopi economici. Quindi, l’uso non autorizzato delle sembianze di una persona comune o un’attrice o attore riprodotto attraverso l’AI sarebbe senz’altro censurabile sotto il profilo della violazione del diritto all’immagine anche quando l’uso non è fatto con finalità commerciali. In ogni caso la violazione del diritto all’immagine conferisce tutela inibitoria e risarcitoria nel caso in cui il soggetto ritratto abbia effettivamente patito un danno”.

Negli USA il Right of Publicity ha invece un ambito di applicazione più limitato, posto che si tratta di un diritto di natura patrimoniale, invocabile principalmente quando si fa un uso non autorizzato dell’immagine o dell’identità di una persona per finalità commerciali. Il Right of Publicity, per esempio, potrebbe essere invocato da Tom Hanks per tutelare la propria immagine, utilizzata senza il suo consenso per la realizzazione di un deep fake generato da AI per promuove una campagna pubblicitaria a favore di una catena di dentisti.

 1. MANCANZA DI TRASPARENZA DELL’IA 

I modelli di intelligenza artificiale e deep learning possono essere difficili da comprendere, anche per coloro che lavorano direttamente con la tecnologia . Ciò porta a una mancanza di trasparenza su come e perché l’intelligenza artificiale giunge alle sue conclusioni, creando una mancanza di spiegazioni su quali dati utilizzano gli algoritmi di intelligenza artificiale o sul motivo per cui potrebbero prendere decisioni distorte o non sicure. Queste preoccupazioni hanno dato origine all’uso dell’intelligenza artificiale spiegabile , ma c’è ancora molta strada prima che i sistemi di intelligenza artificiale trasparenti diventino una pratica comune.

2. PERDITE DI POSTI DI LAVORO DOVUTE ALL’AUTOMAZIONE DELL’AI

L’automazione del lavoro basata sull’intelligenza artificiale è una preoccupazione urgente poiché la tecnologia viene adottata in settori come il marketing , la produzione e la sanità . Secondo McKinsey, entro il 2030, le attività che rappresentano fino al 30% delle ore attualmente lavorate nell’economia statunitense potrebbero essere automatizzate – con i dipendenti neri e ispanici particolarmente vulnerabili al cambiamento . Goldman Sachs afferma addirittura che 300 milioni di posti di lavoro a tempo pieno potrebbero essere persi a causa dell’automazione dell’intelligenza artificiale. Man mano che i robot IA diventeranno più intelligenti e abili, gli stessi compiti richiederanno meno esseri umani. E mentre si stima che l’intelligenza artificiale creerà 97 milioni di nuovi posti di lavoro entro il 2025 , molti dipendenti non avranno le competenze necessarie per questi ruoli tecnici e potrebbero rimanere indietro se le aziende non migliorano le competenze della propria forza lavoro .

3. MANIPOLAZIONE SOCIALE ATTRAVERSO ALGORITMI DI AI

Anche la manipolazione sociale rappresenta un pericolo per l’intelligenza artificiale. Questa paura è diventata realtà poiché i politici si affidano a piattaforme per promuovere i propri punti di vista e l’incapacità dell’algoritmo di filtrare contenuti dannosi e imprecisi, solleva molte preoccupazioni sulla capacità delle stesse di saper bloccare informazioni fuorvianti. Perché queste tecnologie semplificano la creazione di foto, video, clip audio realistici o la sostituzione dell’immagine di una figura con un’altra in un’immagine o un video esistente. Di conseguenza, i malintenzionati hanno un’altra strada per condividere la disinformazione e la propaganda di guerra , creando uno scenario da incubo in cui può essere quasi impossibile distinguere tra notizie attendibili e false. 

4. SORVEGLIANZA SOCIALE CON LA TECNOLOGIA AI

L’intelligenza artificiale è già scontato per molti che influenzerà negativamente la privacy e la sicurezza. Un ottimo esempio è l’uso da parte della Cina della tecnologia di riconoscimento facciale negli uffici, nelle scuole e in altri luoghi. Oltre a monitorare i movimenti di una persona, il governo cinese potrebbe essere in grado di raccogliere dati sufficienti per monitorare le attività, le relazioni e le opinioni politiche di una persona. Un altro esempio sono i dipartimenti di polizia statunitensi che adottano algoritmi di polizia predittiva per anticipare dove si verificheranno i crimini. Il problema è che questi algoritmi sono influenzati dai tassi di arresto, che hanno un impatto sproporzionato sulle comunità nere . 

5. MANCANZA DI PRIVACY DEI DATI UTILIZZANDO GLI STRUMENTI AI

I sistemi di intelligenza artificiale spesso raccolgono dati personali per personalizzare le esperienze degli utenti o per aiutare ad addestrare i modelli di intelligenza artificiale.  Sebbene in alcuni casi negli Stati Uniti esistano leggi per proteggere le informazioni personali, non esiste una legge federale esplicita che protegga i cittadini dai danni alla privacy dei dati subiti dall’intelligenza artificiale. 

6. DISUGUAGLIANZA SOCIOECONOMICA COME RISULTATO DELL’AI 

L’idea che l’intelligenza artificiale possa misurare i tratti di un candidato attraverso l’analisi del volto e della voce è ancora viziata da pregiudizi razziali, riproducendo le stesse pratiche di assunzione discriminatorie che le aziende affermano di voler eliminare. L’ampliamento della disuguaglianza socioeconomica innescata dalla perdita di posti di lavoro dovuta all’intelligenza artificiale è un altro motivo di preoccupazione, rivelando i pregiudizi di classe su come viene applicata l’intelligenza artificiale. Gli operai che svolgono compiti più manuali e ripetitivi hanno subito cali salariali fino al 70% a causa dell’automazione. Nel frattempo, i colletti bianchi sono rimasti in gran parte intatti, e alcuni hanno addirittura goduto di salari più alti. 

Le affermazioni generali secondo cui l’intelligenza artificiale avrebbe in qualche modo superato i confini sociali o creato più posti di lavoro non riescono a dipingere un quadro completo dei suoi effetti. È fondamentale tenere conto delle differenze basate sulla razza, sulla classe e su altre categorie. Altrimenti, discernere in che modo l’intelligenza artificiale e l’automazione avvantaggiano determinati individui e gruppi a scapito di altri diventa più difficile. 

7. ARMI AUTONOME ALIMENTATE DA AI

Come troppo spesso accade, i progressi tecnologici sono stati sfruttati a fini bellici. Quando si tratta di intelligenza artificiale, alcuni sono ansiosi di fare qualcosa prima che sia troppo tardi: in una lettera aperta del 2016 , oltre 30.000 persone, tra cui ricercatori di intelligenza artificiale e robotica , si sono opposti all’investimento in armi autonome alimentate dall’intelligenza artificiale. “La domanda chiave per l’umanità oggi è se avviare una corsa globale agli armamenti legati all’intelligenza artificiale o impedirne l’inizio”, hanno scritto. “Se una grande potenza militare dovesse portare avanti lo sviluppo di armi basate sull’intelligenza artificiale, una corsa agli armamenti globale sarebbe praticamente inevitabile, e il punto finale di questa traiettoria tecnologica è ovvio: le armi autonome diventeranno i Kalashnikov di domani”. Questa previsione si è concretizzata sotto forma di sistemi di armi letali autonomi , che individuano e distruggono gli obiettivi da soli rispettando poche normative. A causa della proliferazione di armi potenti e complesse, alcune delle nazioni più potenti del mondo hanno ceduto alle ansie e hanno contribuito a una guerra fredda tecnologica. Molte di queste nuove armi comportano gravi rischi per i civili sul campo, ma il pericolo aumenta quando le armi autonome cadono nelle mani sbagliate. Gli hacker hanno padroneggiato vari tipi di attacchi informatici , quindi non è difficile immaginare un attore malintenzionato che si infiltri in armi autonome e istighi l’apocalisse totale.  Se le rivalità politiche e le tendenze guerrafondaie non vengono tenute sotto controllo, l’intelligenza artificiale potrebbe finire per essere utilizzata con le peggiori intenzioni.   

8. CRISI FINANZIARIE PROVOCATE DAGLI ALGORITMI DI AI  

Il settore finanziario è diventato più ricettivo al coinvolgimento della tecnologia AI nei processi finanziari e commerciali quotidiani. Di conseguenza, il trading algoritmico potrebbe essere responsabile della nostra prossima grande crisi finanziaria sui mercati. Sebbene gli algoritmi di intelligenza artificiale non siano offuscati dal giudizio o dalle emozioni umane, non tengono nemmeno conto dei contesti , dell’interconnessione dei mercati e di fattori come la fiducia e la paura umana. Questi algoritmi effettuano quindi migliaia di operazioni a un ritmo vertiginoso con l’obiettivo di vendere pochi secondi dopo per piccoli profitti. La vendita di migliaia di operazioni potrebbe spaventare gli investitori e indurli a fare la stessa cosa, portando a crolli improvvisi e ad un’estrema volatilità del mercato. Questo non vuol dire che l’intelligenza artificiale non abbia nulla da offrire al mondo della finanza. In effetti, gli algoritmi di intelligenza artificiale possono aiutare gli investitori a prendere decisioni più intelligenti e informate sul mercato. Ma le organizzazioni finanziarie devono assicurarsi di comprendere i propri algoritmi di intelligenza artificiale e il modo in cui tali algoritmi prendono decisioni. Le aziende dovrebbero considerare se l’intelligenza artificiale aumenta o diminuisce la loro fiducia prima di introdurre la tecnologia per evitare di alimentare paure tra gli investitori e creare caos finanziario.

9. PERDITA DI INFLUENZA UMANA

Un affidamento eccessivo alla tecnologia dell’intelligenza artificiale potrebbe comportare la perdita dell’influenza umana – e una mancanza di funzionamento umano – in alcune parti della società. L’uso dell’intelligenza artificiale nel settore sanitario potrebbe , ad esempio, comportare una riduzione dell’empatia e del ragionamento umani . E l’applicazione dell’intelligenza artificiale generativa per gli sforzi creativi potrebbe diminuire la creatività umana e l’espressione emotiva . Interagire troppo con i sistemi di intelligenza artificiale potrebbe persino causare una riduzione della comunicazione tra pari e delle abilità sociali. Pertanto, sebbene l’intelligenza artificiale possa essere molto utile per automatizzare le attività quotidiane, alcuni si chiedono se potrebbe frenare l’intelligenza umana, le capacità e il bisogno di comunità in generale.

10. IA INCONTROLLABILE E CONSAPEVOLE DI SÉ

C’è anche la preoccupazione che l’intelligenza artificiale progredirà in termini di intelligenza così rapidamente da diventare senziente e agire al di fuori del controllo degli esseri umani, forse in modo dannoso. Presunte segnalazioni di questa sensibilità si sono già verificate, con un resoconto popolare di un ex ingegnere di Google che ha affermato che il chatbot AI LaMDA era senziente e gli parlava proprio come farebbe una persona. Poiché i prossimi grandi traguardi dell’intelligenza artificiale riguardano la realizzazione di sistemi dotati di intelligenza artificiale generale , e infine di superintelligenza artificiale , continuano a crescere le richieste di fermare completamente questi sviluppi .

Come mitigare i rischi dell’intelligenza artificiale

L’intelligenza artificiale presenta ancora numerosi vantaggi , come l’organizzazione dei dati sanitari e l’alimentazione delle auto a guida autonoma. Per ottenere il massimo da questa promettente tecnologia, tuttavia, alcuni sostengono che sia necessaria un’ampia regolamentazione. La regolamentazione dell’IA è stata l’obiettivo principale di decine di paesi , e ora gli Stati Uniti e l’Unione Europea stanno creando misure più chiare per gestire la crescente sofisticazione dell’intelligenza artificiale. (In effetti, nel 2023, il presidente Joe Biden ha emesso un ordine esecutivo che impone alle agenzie federali di sviluppare nuove regole e linee guida per la sicurezza e la protezione dell’intelligenza artificiale.) Sebbene ciò significhi che alcune tecnologie di intelligenza artificiale potrebbero alla fine essere vietate, non impedisce alle società di esplorare il campo preservando uno spirito di sperimentazione vitale La chiave è decidere come applicare l’intelligenza artificiale in modo etico . A livello aziendale, ci sono molti passaggi che le aziende possono intraprendere quando integrano l’intelligenza artificiale nelle loro operazioni. Le organizzazioni possono sviluppare processi per monitorare gli algoritmi, compilare dati di alta qualità e spiegare i risultati degli algoritmi di intelligenza artificiale. I leader potrebbero persino rendere l’intelligenza artificiale parte della loro cultura aziendale , stabilendo standard per determinare le tecnologie IA accettabili. I ricercatori sull’intelligenza artificiale dell’Università di Stanford, Fei-Fei Li e John Etchemendy, sostengono questo argomento in un post sul blog del 2019 che chiede una leadership nazionale e globale nella regolamentazione dell’intelligenza artificiale:   

“I creatori dell’intelligenza artificiale devono ricercare le intuizioni, le esperienze e le preoccupazioni delle persone di ogni etnia, genere, cultura e gruppo socioeconomico, così come di altri campi, come l’economia, il diritto, la medicina, la filosofia, la storia, la sociologia, le comunicazioni , interazione uomo-computer, psicologia e studi scientifici e tecnologici (STS).”

Bilanciare l’innovazione high-tech con il pensiero centrato sull’uomo è un metodo ideale per produrre una tecnologia di intelligenza artificiale responsabile e garantire che il futuro dell’intelligenza artificiale rimanga promettente per la prossima generazione. I pericoli dell’intelligenza artificiale dovrebbero essere sempre argomento di discussione, in modo che i leader possano trovare modi per utilizzare la tecnologia per scopi nobili. 



Scopri di più da WHAT U

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Content is protected !!

Scopri di più da WHAT U

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere