What's Hot
Etica e Intelligenza Artificiale: il binomio possibile
Creare sistemi di Intelligenza Artificiale (IA) guidati dall’etica, con l'individuo sempre al centro, rappresenta una delle sfide più ardue dell’innovazione data-driven. Il confronto con questioni di tipo etico dev’essere un “must” sia per chi progetta e sviluppa soluzioni basate su IA, sia per le aziende che le adottano all’interno delle proprie organizzazioni.
La discussione sull’introduzione dell’intelligenza artificiale è un dibattito che si centra sull’equilibrio tra rischi e opportunità di natura economica, relativi alla sicurezza ma anche di natura più “sociale” come i rischi e le opportunità legati all’etica.
Quali rischi e opportunità sorgono nella collaborazione tra umani ed Intelligenza Artificiale? Parte da questa domanda Mariarosaria Taddeo, Professore Associato e Senior Research Fellow presso l’Oxford Internet Institute, per raccontare al pubblico di Be Curious Be Innovative, l’evento SAS dedicato alle “domande di oggi, rivoluzione per il futuro”, come mitigare i rischi legati alla nascita di “team ibridi” (in cui tecnologie evolute di AI sono parte integrante dei gruppi di lavoro) ed esplorarne tutto il potenziale positivo.
Opportunità e rischi, un bilanciamento raggiungibile
Si parte da una doverosa premessa che ci porta a capire, innanzitutto, che non parliamo affatto di una intelligenza umana e nemmeno di semplici strumenti, ma di agenti autonomi che interagiscono (anche imparando) e partecipano ai processi operazionali e decisionali dei team di esseri umani, integrandosi perfettamente in essi.
«Voglio partire dalle opportunità perché quando si parla del binomio etica e intelligenza artificiale c’è quasi sempre la percezione che il ruolo degli eticisti sia quello di fermare il progresso dell’IA, ma non è così. Una delle aree di maggior successo di introduzione dell’intelligenza artificiale, come “agente” che opera accanto agli esseri umani, è quella delle cure mediche», descrive Taddeo. «All’inizio il dibattito è stato intenso ed è durato a lungo; si pensava che l’introduzione dell’IA mettesse a rischio la relazione tra medici e pazienti. Qualche anno fa, uno studio specifico sull’impiego dell’intelligenza artificiale nella diagnosi del tumore al seno dimostrò che le macchine avevano un margine di errore del 7%, mentre gli oncologi esperti del 3%. Sembrava quindi che la tesi a sfavore dell’IA in campo medico prevalesse. Un secondo studio dimostrò però un fatto significativo: l’unione delle abilità dell’IA con le competenze e le esperienze dei medici porta il margine di errore diagnostico allo 0,5%. Questo perché esseri umani e agenti autonomi fanno errori differenti e, se si correggono a vicenda, danno origine a straordinari risultati».
Oggi l’intelligenza artificiale consente di estrarre informazioni utili da grandissime moli di dati (impensabili per l’esplorazione e l’analisi umane), «ci offre la conoscenza che ci serve per capire (ed affrontare) fenomeni complessi», spiega Taddeo. «Il potenziale positivo dell’IA sta nel supporto agli esseri umani a vincere sfide complesse».
Accanto alle opportunità ci sono però anche i rischi. Cinque le dimensioni di rischio identificate da Mariarosaria Taddeo: «L’intelligenza artificiale amplifica quelli che possono essere comportamenti erronei o maliziosi degli esseri umani; mantenere il controllo delle tecnologie risulta problematico, soprattutto se ci si trova ad avere a che fare con soluzioni “black box” (ossia con tecnologie non trasparenti); attribuire la responsabilità, soprattutto morale, delle azioni condotte da agenti autonomi è una sfida aperta; l’intelligenza artificiale genera impatti che possono anche essere problematici sul mantenimento delle nostre capacità e competenze umane; infine, può anche erodere la nostra autonomia di esseri umani».
Mariarosaria Taddeo, Professore Associato e Senior Research Fellow, Oxford Internet Institute
Per mitigare i rischi - ed esplorare tutto il potenziale positivo dell’intelligente artificiale - occorre una loro gestione etica, che riesca a conciliare dicotomie come autonomia e controllo, fiducia e rischio, trasparenza e accountability.
«L’intelligenza artificiale è un agente, una tecnologia trasformativa, ma non è una bacchetta magica - invita a riflettere in chiusura Taddeo -, soprattutto non è detto che sia sempre la migliore soluzione percorribile, ci sono sempre dei rischi e delle opportunità che vanno valutati. La scelta di iniziare a usare l’IA non è un dato di fatto, ma qualcosa che deve seguire a un’analisi rischi-benefici che ne giustifichi l’utilizzo. Nell’analisi preventiva alla decisione, dobbiamo iniziare a valutare anche le implicazioni legali, etiche e sociali».
Nelle aziende si cerca il bilanciamento
Ma cosa significa occuparsi di etica e intelligenza artificiale all’interno delle organizzazioni aziendali? Martina Pennisi, Giornalista del Corriere della Sera, lo chiede direttamente ai rappresentati di alcune realtà che hanno dibattuto in una tavola rotonda durante l’evento Be Curious Be Innovative di SAS.
«Spesso le questioni etiche vengono percepite come un rischio allo sviluppo di progetti che prevedono l’utilizzo dell’intelligenza artificiale, ma non è così. Noi abbiamo deciso di considerarle una opportunità che ci permette, innanzitutto, di trasferire i valori aziendali di rispetto, apertura e inclusione, dal mondo fisico al mondo digitale, per poi sviluppare soluzioni ed erogare servizi affidabili e sicuri», esordisce Alessandro Bonaita, Group Head of Data Science di Generali Group.
Gli fa eco Massimo Fedeli, CIO di Istat che parla di trasparenza e fiducia: «oggi ci sono le condizioni per sfruttare gli algoritmi e le tecniche di intelligenza artificiale per fare analisi sempre più efficaci, ma si rende necessaria una revisione delle metodologie e degli aspetti deontologici legati alla raccolta, all’analisi e all’utilizzo dei dati che devono continuare a rispettare i principi di trasparenza e fiducia. Obiettivo che miriamo a raggiungere con l’istituzione di un Comitato ad hoc e alcuni laboratori di sviluppo attraverso i quali creiamo nuove soluzioni e servizi».
Da sx a dx: Martina Pennisi, Stefano Tomasini, Lorenzo Gubian, Massimo Fedeli, Alessandro Bonaita
«Oggi la frontiera è riuscire a incrociare le fonti e le enormi moli di dati che generano», incalza Lorenzo Gubian, Direttore Generale di Aria. «La nuova sfida dei sistemi sanitari nazionali, per esempio, riguarda la possibilità di poter stratificare e profilare pazienti e cittadini per poter fare azioni di programmazione ma anche per definire piani di azione di cure più efficaci. La ricchezza oggi non è nel conoscere un dominio verticale dei dati ma nel poter incrociare diversi domini. Una opportunità (e un bisogno) che rappresenta anche una sfida perché non si può non tenere conto delle implicazioni etiche».
Anche all’interno di un istituto come INAIL la ricerca dell’equilibrio è ciò che guida oggi l’adozione dell’intelligenza artificiale. «In questo momento assistiamo senza dubbio a una limitazione di quelli che potrebbero essere i servizi resi agli utenti dalla Pubblica Amministrazione», invita a riflettere Stefano Tomasini, Responsabile della Direzione Centrale per l’Organizzazione Digitale di INAIL. «C’è una difficoltà oggettiva nel condividere linguaggi e dati in maniera efficace ed efficiente (ma è una strada iniziata ed i risultati arriveranno). È chiaro che c’è anche un altro tema delicato da affrontare, quello che riguarda la capacità di utilizzare i dati al meglio. Per questo servono anche scelte e interventi di natura legistativa».
Un bilanciamento, quello tra etica e intelligenza artificiale, che richiede dunque anche l’intervento regolatorio. È necessario definire in che modo soddisfare bisogni infornativi sempre più spinti, da un lato, nel rispetto di principi etici e di privacy che, dall’altro, non possono certo essere trascurati.
Martina Pennisi e Stefano Maggioni SAS
Ethical Innovation, verso la Responsible AI
L’intelligenza artificiale rappresenta una incredibile opportunità di progresso e innovazione ma... «come tutte le forme di progresso, è importante che sia controllata. È molto rilevante riuscire a cogliere dove e quando si possono porre dei dilemmi etici», sono le considerazioni che Stefano Maggioni, Advanced Analytics & AI Manager di SAS, condivide spiegando quali sono i “momenti” critici di attenzione. «Uno dei “primi momenti” che possono essere affetti da distorsione è rappresentato dai dati utilizzati per “istruire” i modelli analitici: è importante che questi non siano “affetti da pregiudizi” altrimenti il modello non farà altro che replicarli o, addirittura, amplificarli».
Un secondo momento di “verifica” che può contribuire ad andare verso la cosiddetta Responsible AI, chiama in causa gli algoritmi. «La possibilità di comprendere e spiegare un algoritmo è importante tanto quanto le sue performance», spiega Maggioni. «La cosa più importante è sempre partire dall’obiettivo e, in base ad esso, definire l’approccio modellistico più adatto, senza vincoli e limitazioni».
Il terzo momento riguarda il rilascio: bisogna limitare l’impatto che può generare un bias nei dati o un errore. Lo si fa coniugando competenze e discipline differenti che devono poter condividere e lavorare in modo collaborativo.
«Infine, c’è il momento della governance - evidenzia Maggioni in chiusura -: trasparenza e tracciabilità devono fare da fìl rouge lungo tutti i processi coinvolti dall’intelligenza artificiale».
Leggi la sintesi delle altre sessioni
11 Novembre 2021
ARTICOLI CONSIGLIATI
-
Innovation sparksInnovazione e Trasformazione nell’Area Credito: l’esperienza di TIMTIM ha intrapreso un progetto ambizioso volto a innovare processi, sistemi e organizzazione, con l’obiettivo di migliorare l’efficienza e garantire una gestione sempre più data-driven.
-
Data for GoodAI_PREMie: innovazione e collaborazione per prevenire le complicazioni della preeclampsiaLa ricerca condotta dall'University College di Dublino potrebbe salvare decine di migliaia di vite utilizzando il machine learning per diagnosticare la preeclampsia.
-
Innovation SparksLe Model Card di SAS: una bussola per la trasparenza e l’eccellenza nei modelli di Intelligenza ArtificialeIntegrate nella piattaforma SAS Viya, le Model Card di SAS sono concepite per documentare e chiarire ogni aspetto dei modelli di intelligenza artificiale e machine learning.