Ethical AI – le domande da porsi in un mondo che cambia
di Diletta Huyskes, Ricercatrice e Responsabile Advocacy di Privacy Network
Tempo di lettura: 6 min
Tempo di lettura:6 min
Qualsiasi approccio etico e responsabile all’intelligenza artificiale deve necessariamente partire da delle domande, da una volontà di interrogarsi e non dare nulla per scontato. Durante la sessione parallela sull’etica dell’intelligenza artificiale dell’evento “Be Curious. Be Innovative” abbiamo cercato di capire quali siano le domande – e le risposte – più urgenti di questa fase, ascoltando le esperienze pratiche di molti professionisti di diversi settori. Abbiamo deciso di farlo con questo approccio perché siamo convinti che per sviluppare un’IA che possa essere degna di fiducia non basta più innovare dal punto di vista esclusivamente tecnologico. È necessario che a questa volontà corrisponda uno sforzo per gestirla in modo etico, a partire dai dati e lungo tutta la catena produttiva e commercialea.
La forza vincente del binomio
Cloud-Analytics sta nei percorsi di
modernizzazione, trasformazione, innovazione
che le aziende riescono ad innescare.
DILETTA HUYSKES
Ricercatrice e Responsabile Advocacy di Privacy Network
La forza vincente del binomio
Cloud-Analytics sta nei percorsi di
modernizzazione, trasformazione, innovazione
che le aziende riescono ad innescare.
DILETTA HUYSKES
Ricercatrice e Responsabile Advocacy di Privacy Network
Quali sono le domande più urgenti da porsi in un mondo che cambia? Ho immaginato tre focus specifici che ci guidassero per trovare delle risposte il più chiare e pratiche possibili:
Come anticipare le regole che verranno imposte dal Regolamento europeo sull’intelligenza artificiale (AI Act), per non farsi trovare impreparati?
Sappiamo già molto sul contenuto del futuro Regolamento europeo sull’IA, che richiederà a chi sviluppa e applica sistemi soprattutto considerati ad alto rischio di seguire regole ben precise, una su tutte quella di documentare le scelte di design e di valutare gli impatti e le performance dei propri prodotti o algoritmi. Invece di farsi cogliere impreparati, questa fase andrebbe sfruttata per accompagnare questo cambiamento e organizzare almeno internamente ad aziende, amministrazioni e organizzazioni i team attraverso, ad esempio, corsi di formazione e linee guida.
Come garantire il controllo e monitoraggio umano, per un’AI che possa aumentare le capacità umane?
Per garantire un approccio etico, un sistema di intelligenza artificiale o un processo automatizzato dovrebbero sempre essere supervisionati e controllati dagli esseri umani, per validare gli output e i risultati anche intermedi, e quindi non solo la decisione finale ma anche il ciclo di vita. Ciò significa usarli come supporto alle decisioni umane, per aumentare le capacità umane e non per sostituirle. Questa decisione ha a che fare con la responsabilizzazione.
Come garantire sistemi AI degni di fiducia per le persone e per i clienti?
Penso che un approccio etico e responsabile nella governance dell’AI possa diventare un vantaggio competitivo per le aziende. Attraverso processi trasparenti, infatti, i clienti e le persone sono incoraggiati a fidarsi del funzionamento dei sistemi. Al contrario, quando i loro risultati vengono tenuti nascosti o trattati come inevitabili, le persone non hanno strumenti per valutarli, e possono perdere fiducia in chi decide di adottarli. Valutare l’impatto dell’AI, comunicando la sua efficacia in contesti specifici, è un ottimo punto di partenza.
Ma da dove partire? Innanzitutto, ponendosi in una condizione di curiosità. Per porsi queste domande bisogna volerlo. L’evento di SAS è intitolato “Be Curious. Be Innovative”. Io aggiungerei anche siate responsabili. Perché essere curiosi non significa solo cercare passivamente le novità, significa anche porsi tutte le domande necessarie prima di sviluppare o utilizzare un sistema. Perché è una responsabilità. E con questa responsabilità si possono evitare o mitigare situazioni problematiche: danni economici o di immagine, problemi con clienti, fornitori, dipendenti. Perché è necessario? Perché nessuno può permettersi più che accadano certe cose..
Essere innovativi non significa più solo produrre novità tecnologiche, ma incoraggiare un cambiamento culturale. Una nuova cultura che si occupi di valutare il rischio in precedenza, non solo quando i danni sono già avvenuti.
Alessandro Bonaita di Generali Group
È proprio da questa idea che è partito anche il racconto di Alessandro Bonaita, Group Head of Data Science di Generali Group, dove già da tempo si sta occupando di diffondere consapevolezza sulle future regole che arriveranno dall’Europa per allineare i processi interni. Ci ha spiegato che dal suo punto di vista dovrebbe essere naturale, arrivati a questo livello di sviluppo, chiedersi come queste tecnologie impattano sui clienti, sui servizi, e sulla società più in generale. Per incoraggiare le aziende ad adottare questo approccio nonostante gli sforzi, le difficoltà e le resistenze, secondo Bonaita è fondamentale rendersi conto che i rischi che un utilizzo poco responsabile dell’AI possono provocare sono in realtà rischi che conosciamo già: è lo strumento ad essere nuovo.
La General Data Protection Regulation (GDPR), ad esempio, ha introdotto principi come la trasparenza e la non discriminazione che possono ispirarci nel mitigare questi rischi. È necessario, però, calare questi principi nella pratica, nei codici di condotta interni aziendali, nei processi di governance già esistenti e nelle normative di settore. È proprio questo l’approccio di Generali per rendere operativi i principi e per generare fiducia nei consumatori e nei clienti, che saranno anche vantaggi competitivi importanti. La strategia del gruppo assicurativo è di sviluppare un framework etico da incorporare negli strumenti regolatori interni, accompagnato da formazione, ricerca, e comunicazione, che generano a loro volta trasparenza. Stanno lavorando molto concretamente anche ai requisiti che l’AI Act introdurrà, sviluppando ad esempio un compas di autovalutazione iniziale per comprendere gli impatti che la nuova normativa avrà sulle strategie e sulle persone.
Insieme agli ospiti della panel discussion siamo voluti entrare ancora più nello specifico di settori molto diversi, per raccontare le loro azioni e gli approcci concreti per governare i sistemi di IA. Giuseppe Maifredi, Group Chief Data Officer di BPER Banca, ha giustamente riportato l’attenzione sul dato e sulla loro architettura. Per potersi fidare dei dati, e quindi di ciò che viene dopo, bisogna conoscerli: è essenziale, per un servizio bancario, capire come interpretarli e governarli. Per poterlo fare, anche BPER insiste sulla formazione, perché la data governance possa essere un processo consapevole, innanzitutto per le persone.
Giuseppe Maifredi di BPER Banca
Arianna Benatti ha spiegato che Agos già da anni si è accorta di quanto siano performanti certi modelli di machine learning applicati ai loro servizi, come il credit scoring, oltre ai modelli statistici più tradizionali. Per questo, come Chief Data Officer, racconta che entro il prossimo anno Agos vorrebbe convertire tutti i loro modelli in apprendimento automatico. Ciò rende necessaria un’attenzione e un monitoraggio ancora maggiori che però, come sottolineava Bonaita, non sono nuovi: i rischi che vanno considerati per servizi come il credit scoring hanno imposto all’azienda già da tempo di dotarsi di chiare regole interne. Ad esempio, ci sono alcune variabili che vengono considerate “proibite” e non possono essere inserite all’interno dei modelli. Tra queste c’è il genere, per evitare che un modello di credito possa penalizzare una donna rispetto a un uomo, a parità di caratteristiche finanziarie. Anche i giovani vengono trattati separatamente, perché se trattati allo stesso modo degli adulti con decenni di esperienza e con un reddito alto verrebbero automaticamente esclusi da certi servizi. C’è forte consapevolezza sul fatto che non basti nascondere le variabili, perché ce ne sono altre che potrebbero fare da proxy e rivelare le stesse informazioni, e per questo vengono fatti controlli sviluppando sempre sei modelli contemporaneamente, per valutare le performance e confrontare i risultati grazie al supporto del team di Data Governance.
Arianna Benatti di Agos
Antonio Ballarin di Sogei
Su questo tema ha insistito anche Andrea Beccari, Senior Director di EXSCALATE in Dompé farmaceutici: un settore non storicamente data-driven, ma che sta beneficiando enormemente dei calcoli computazionali per costruire modelli in grado di prevedere patologie o terapie. Mancano però i dati, o perché non sono anonimizzabili (come quelli genetici) o perché non si hanno ancora linee guida sufficienti su come controllare i modelli. Antonio Ballarin, Chief Artificial Intelligence Officer di Sogei, è un fisico con una lunga esperienza nell’AIA soprattutto nella pubblica amministrazione e proprio per questo gli ho chiesto se pensa sia importante mantenere un controllo umano nei processi e chi dovrebbe occuparsene. Ha sottolineato che i dati, il loro utilizzo e i processi automatizzati sono un tema molto sensibile. Per questo, è necessario che le persone che ci lavorano siano consapevoli dei limiti impliciti delle macchine, che saranno sempre parziali perché non descriveranno mai in maniera completa la realtà, e quindi soggette a errori. Il ruolo umano è imprescindibile e ineliminabile, ma non basta quello dei data scientist. La complessità di gestione di questi processi non può essere relegata esclusivamente alla statistica, ma richiede visioni strategiche, etiche, in grado di trovare interpretazioni e soluzioni più ampie. Questo perché, come sottolinea Benatti, lo scopo di chi crea modelli è di raggiungere un risultato ottimale dal punto di vista tecnico, e quindi difficilmente potrà da sola accorgersi di anomalie di altra natura.
Il tema dei bias di genere è molto presente anche nell’ambito medico e farmaceutico, e come fa notare Beccari esiste un forte gender data gap, dovuto ad anni di sperimentazioni sul corpo maschile. Dompé sta sperimentando l’utilizzo dei dati sintetici come potenziale soluzione al problema dei bias, per poter addestrare i loro modelli su dei campioni il più possibile rappresentativi della popolazione. Questo, secondo Ballarin, è la domanda più urgente da porsi quando parliamo di etica: è giusto usare dati parziali, mai del tutto rappresentativi? Sogei effettua dei test etici basati sulle linee guida per una Trustworthy AI create nel 2018 dalla Commissione europea, in modo da valutare la performance dei modelli su casi e variabili specifici e correggerli prima di renderli effettivamente operativi. Anche BPER sta adottando una simile metodologia, applicando test per valutare sia l’efficienza sia l’eticità dei modelli prima di poterli utilizzare. Maifredi è tornato anche sull’importanza della comunicazione, per assicurare processi trasparenti, condividere i risultati e soprattutto chiedersi: “a cosa ci serve, questo sistema?”
Da sx a dx, Giuseppe Maifredi di BPER Banca, Arianna Benatti di Agos, Antonio Ballarin di Sogei, Diletta Huyskes e, in collegamento, Andrea Beccari di Dompé farmaceutici.
In chiusura, Nicola Scarfone e Filippo Prazzoli sono andati proprio in questa direzione, illustrando dettagliatamente tutti i requisiti dei sistemi ad alto rischio che saranno introdotti dall’AI Act europeo. Data governance, gestione del rischio, documentazione e tracciabilità, supervisione umana, trasparenza, gestione dei bias. Hanno presentato l’Engine di SAS per rispondere a questo grande cambiamento, un processo che aiuta le imprese a gestire ognuna di queste future richieste normative per assicurare compliance ai propri modelli. Particolarmente importante la rete di stakeholder da coinvolgere.
Siamo partiti dai principi, per arrivare a un framework molto concreto di gestione dei cicli di vita dell’IA. Ascoltare esperienze e conoscere modelli alternativi è un passaggio fondamentale per stimolare chi ancora non se ne occupa ad adottare un approccio responsabile all’AI, sia internamente che nei confronti di clienti e persone. Penso davvero che diffondere casi pratici su possibili soluzioni, test e valutazioni dei modelli sia uno dei modi migliori per stimolare un cambiamento. Per far capire che è possibile porsi le domande giuste, farlo in anticipo, e farsi carico delle proprie scelte.
Digital Transformation
la trasformazione digitale per le persone: quando l’innovazione è al servizio della società
Analytics & Cloud
la combinazione perfetta per accelerare la trasformazione in azienda
Vuoi approfondire i percorsi dell’evento,
o seguire la sessione plenaria?
A questo link sono disponibili le registrazioni.
Vuoi approfondire i percorsi dell’evento,
o seguire la sessione plenaria?
A questo link sono disponibili le registrazioni.
11 novembre 2022
ARTICOLI CONSIGLIATI
-
Innovation SparksSAS Viya Workbench: il futuro dell’Intelligenza Artificiale è quiSAS Viya Workbench è l'ambiente di lavoro flessibile e adattabile che offre agli utenti la libertà di sviluppare modelli di AI e machine learning con una velocità e una coerenza senza rivali.
-
Innovation SparksSAS Viya: la Piattaforma che rende le decisioni 4,6 volte più veloci e aumenta l'InnovazioneUn nuovo studio dimostra che la piattaforma di dati e intelligenza artificiale SAS® Viya® permette agli utenti di raggiungere una produttività 4,6 volte superiore rispetto ai competitor selezionati.
-
Innovation SparksI 5 principali problemi del settore assicurativo — e l’IA non è tra questi!L'intelligenza artificiale e altre tecnologie possono guidare una trasformazione più equa e resiliente alle sfide del settore, offrendo nel contempo vantaggi competitivi alle assicurazioni tradizionali e alle insurtech.