Innovation Sparks
"Fare il data scientist con una grande disponibilità di dati al proprio servizio è il sogno di chiunque faccia questo lavoro”
L’entusiasmo e la curiosità che esprime Andrea Cosentini, Head of Data Science & AI di Intesa Sanpaolo, quando parla della sua quotidianità è tutta in questa frase.
Intervista di Donata Columbro, Giornalista e Co-Fondatrice - Dataninja
Andrea Cosentini è Head of Data Science & AI di Intesa Sanpaolo, è un fisico con un dottorato in matematica e statistica e un’esperienza decennale nella creazione di modelli matematici e di training di algoritmi. Da un anno e mezzo collabora anche con il Dipartimento di Trasformazione Digitale della Presidenza del Consiglio come Chief Data Officer e dalla voglia di raccontarmi tutto quello di cui si occupa è evidente che sia un entusiasta del suo lavoro e delle enormi potenzialità che ha.
In questa intervista uniamo presente e futuro della data science al servizio dell’innovazione, senza dimenticare l’importanza degli aspetti etici del settore.
Ritengo impossibile l’innovazione senza la spinta della curiosità: i colleghi del nostro team, oltre a una fortissima preparazione tecnica, sono curiosi, inclini all’analisi dei fenomeni e spesso rappresentano un punto di riferimento per gli stakeholder con cui lavoriamo. Andrea Cosentini Product Market Strategy Lead for AI/Generative AI Intesa Sanpaolo
La prima domanda che ti faccio quindi è cosa vuol dire fare innovazione in un grande gruppo come Intesa Sanpaolo e in particolare nella funzione aziendale dedicata ai temi di data science e intelligenza artificiale.
Fare data science in una società in cui si posseggono tanti dati è il sogno di qualsiasi data scientist ed è quello che succede qui in Intesa Sanpaolo: in particolare, nella struttura DS&AI ci occupiamo di sviluppare soluzioni di AI con l’obiettivo di rispondere, in modo puntuale e personalizzato, a specifici business need espressi dalle diverse aree del Gruppo. A tal fine, avere a disposizione dei dataset con una profondità storica rilevante rappresenta un asset di valore per la costruzione dei nostri modelli di AI.
I dati rappresentano infatti il punto di partenza per costruire modelli previsionali e decisionali che analizzano, ad esempio, le modalità di interazione dei clienti, i trend di mercato di titoli di borsa, la valutazione di un contesto economico o creditizio con una efficacia impossibile per l’uomo. Una grande importanza hanno anche i dati esterni che integrano il già grande patrimonio informativo della banca come, ad esempio, i flussi di notizie che ci permettono di analizzare il sentiment di mercato.
È un lavoro entusiasmante e sfidante considerando che i campi di applicazione di soluzioni di AI, ad oggi, sono numerosi e coprono ambiti molto differenti tra loro.
Infatti, nel settore bancario, così come in quello della grande distribuzione, l’uso di soluzioni di AI consente, ad esempio, di individuare in modo più puntuale i bisogni del cliente, proporre i prodotti più adeguati, intercettarne i “desideri” per proporre delle campagne commerciali efficaci e mirate.
Ci racconti altri modi con cui usate i dati?
Al momento, stiamo gestendo circa 20 progettualità che coinvolgono diverse Aree e Divisioni della banca (ad esempio: Corporate, Compliance, Banca dei Territori, Audit, Asset Management, Eurizon Capital, Fideuram). I progetti sono estremamente differenti tra di loro. Uno dei più interessanti su cui abbiamo lavorato negli ultimi tempi è quello che prevede l’applicazione di modelli di AI all’ambito della prevenzione delle frodi per le transazioni effettuate tramite i canali digitali della banca. In questo contesto specifico, come in altri, abbiamo riscontrato un ruolo significativo apportato dall’applicazione di modelli di machine learning affiancati ai motori più tradizionali basati su regole e sull’expertise umana, sia nelle fasi di detection, quindi nell’individuare nuove frodi, ma soprattutto nella gestione dei falsi positivi. Se al mattino facessi una transazione con la mia carta di credito in centro a Milano ed effettuassi nel pomeriggio un pagamento alle Canarie sempre con la stessa carta, la banca potrebbe bloccarla perché riterrebbe l’operazione sospetta dato che avviene a distanza di poche ore in due posti molto lontani tra loro, con un’elevata probabilità di commettere un errore. L’applicazione di algoritmi di machine learning consente di ridurre questo genere di “errori” perché non si basa sull’analisi della singola transazione, ma sull’osservazione del comportamento abituale del singolo cliente, e di un cluster paragonabile, sulla base dei comportamenti agiti in passato.
Cambiando completamente ambito, per Intesa Sanpaolo Assicura, la compagnia assicurativa di Banca Intesa, abbiamo sviluppato una soluzione volta a migliorare l’esperienza del cliente a seguito dell’apertura di un sinistro stradale, riducendone i relativi tempi di gestione. Immaginiamo che due clienti siano coinvolti in un incidente con le loro auto. È stato elaborato un modello basato su tre differenti algoritmi di reti neurali che, attraverso le foto delle parti incidentate del veicolo acquisite tramite un app a diposizione del cliente, è in grado di identificare le parti danneggiate, stimare la gravità del danno sino a fornire un primo ordine di grandezza della stima economica dello stesso. Come si vede trattiamo ambiti molto diversi, ma ugualmente interessanti in termini di impatti sul business.
Quali sono i rischi di cui parlavi prima, oltre le potenzialità dell’intelligenza artificiale, e quindi quali sono le buone pratiche che adottate per un processo virtuoso di analisi dei dati?
Uno dei rischi maggiori che si devono affrontare è quello che si chiama bias amplification. Gli esseri umani imparano dalle sensazioni, dagli input che abbiamo e che ci fanno diventare quello che siamo. Siamo l’effetto di tutto quello che abbiamo vissuto: non rispondiamo a una regola matematica. Ecco, i modelli machine learning sono simili a noi: imparano dai dati su cui vengono addestrati, dagli esiti dei loro output, per migliorarsi sempre di più. L’output è stato costruito dal modello stesso imparando dai dati senza usare una formula (come nelle leggi della fisica, che sono sempre uguali), per esempio osservando dei pattern nascosti che con occhio umano non potremmo mai individuare. Facciamo finta che io adesso debba scrivere un modello per assegnare i premi a tutti i migliori giornalisti d'Italia. Potrei prendere tutti i dati sui premi dati nel passato e da questo costruisco un modello per vedere a chi saranno dati quest'anno i premi per il miglior giornalista. Il modello non ha pregiudizi ma impara dal passato, quando forse si è preferito dare premi a uomini bianchi over 50. Per lui questo è un pattern che deve rispettare anche nell’output futuro, rischiando di provocare una discriminazione a tutti gli effetti. Ecco il bias amplification. Ora immaginiamo questo rischio in ambiti estremamente più complessi, come possono essere quella dell'erogazione del credito.
Ecco, quindi ci sono diverse possibilità in cui gli algoritmi ma anche la data science stessa può incorrere in discriminazioni. E noi su questo ci stiamo lavorando da almeno 4 anni, sviluppando un processo per far sì che i nostri modelli e i dati che utilizziamo siano il più possibile esenti da bias.
E inoltre abbiamo sviluppato anche un un tool che abbiamo chiamato be-fair, il quale si applica ai modelli e quindi agli algoritmi, alle soluzioni che sono in produzione per monitorare se i risultati a cui portano queste soluzioni sono in effetti fair oppure c'è una possibilità di discriminazione in qualche ambito.
L’aspetto interessante del nostro lavoro, secondo me, è che non coinvolge solo le competenze “tecniche”, ma anche in qualche modo poter pensare più in grande e in maniera più ampia a quello che succede, e lo facciamo continuamente con i nostri stakeholder interno.
È bello perché vedo sempre più spesso che, oltre alla statistica, alla matematica e all’informatica, si intrecciano temi che riguardano l’etica e la filosofia nella quotidianità di chi lavora con i dati. Mi chiedevo, che tipo di persone quindi lavorano in un team come questo di Intesa Sanpaolo?
Il gruppo che si occupa di questi temi è molto eterogeneo e, oltre a profili più tecnici, include anche esperti legali e di etica.
Ad oggi la struttura è composta da circa 50 persone con un’ampia, e molto qualificata, percentuale di colleghe.
Nonostante i luoghi comuni che vedono il mondo STEM composto da soli uomini, riscontriamo una sempre maggior componente femminile che si occupa di queste tematiche sia nell’ambito della ricerca teorica che di quella applicata.
Alcuni membri del Team AI di Intesa Sanpaolo
Parlando di competenze quindi, quali sono le più importanti per lavorare in questo settore?
Sicuramente servono conoscenze tecniche come matematica, statistica e informatica (data science e computer science), ma a noi piacciono le persone capaci di allargare lo sguardo. Diciamo così: adoriamo chi si rinchiude in una stanzetta e, dopo due giorni e due notti, ne viene fuori con un modello di machine learning pronto in grado di risolvere un problema di business. Adoriamo anche chi è disposto a confrontarsi sui bisogni, esistenti e futuri, con i nostri stakeholder, e a tradurre i business need in soluzioni tecniche: chi trasforma le sfide in opportunità e l’idea in progettualità. Le competenze tecniche sono molto importanti, ma anche le capacità di relazione, l’attitudine alla comprensione e all’empatia. Senza dimenticare il rispetto della normativa e l’attenzione verso i temi etici che, come abbiamo visto, sono al centro della nostra attività di sviluppo.
Come si uniscono innovazione, curiosità?
L’innovazione non può essere una torre d’avorio scintillante in cui si fanno bellissimi esperimenti che non vengono poi calati nel tessuto dell’azienda. Bisogna sempre agire con un obiettivo specifico che risponde a un bisogno o a un’opportunità. Bisogna pensare in termini di prodotto finale e di come verrà utilizzato. Ora vorrei portare nel team una figura che ancora non abbiamo, quella del designer di prodotto, che ci possa aiutare a costruire soluzioni ancora migliori. Per tornare alla domanda, ritengo impossibile l’innovazione senza la spinta della curiosità: i colleghi del nostro team, oltre ad una fortissima preparazione tecnica, sono curiosi, inclini all’analisi dei fenomeni e spesso rappresentano un punto di riferimento per gli stakeholder accanto ai quali lavoriamo.
Quali sono le sfide di business più complesse e difficili da affrontare oggi? E qual è l’approccio di Intesa Sanpaolo?
Direi la sempre maggiore spinta verso l’efficienza e la digitalizzazione: nel Piano d’Impresa di Intesa Sanpaolo per il triennio 2022-2025 è stato presentato un progetto estremamente ambizioso che si propone di creare una nuova banca totalmente digitale, Isy Bank.
Per un Gruppo come il nostro la sfida maggiore è realizzare velocemente soluzioni efficaci per mantenere e rafforzare la posizione di leadership in un contesto in cui la concorrenza di nuovi player di mercato e la velocità dell’innovazione tecnologica ci pone davanti alla sfida di ripensare ed evolvere continuamente il nostro modus operandi.
Il fatto che ce l'abbiate ben in mente è un ottimo punto di partenza. Volevo aggiungere un’ultima domanda: dal punto di vista del consumatore e dei cittadini rispetto ai dati, oggi c’è una consapevolezza in più, anche rispetto alla protezione dei dati personali. Come affrontate questa situazione?
Un tema estremamente centrale è quello della spiegabilità degli algoritmi che ha un impatto importante sul consumatore. Se un algoritmo prende una decisione automatica che genera una proposta commerciale o, ancora meglio, indica l’entità del credito da concedere a un cliente, tale cliente potrebbe voler sapere su quali basi è stata presa la decisione. A tal fine c’è un filone di ricerca molto attivo, sia in ambito accademico che in quello corporate, volto proprio a rendere spiegabili e quindi giustificabili le motivazioni di un dato output dell’algoritmo. Ma un elemento fondamentale qui è quello che viene indicato come “human oversight”: riteniamo che sarà sempre preferibile prevedere forme di supervisione umana e l’attribuzione delle responsabilità a persone fisiche con un nome e un cognome. La responsabilità è di Mario Rossi e non dell’algoritmo.
Una chiacchierata di un’ora, scambi di punti di vista e molto da imparare: il lavoro di un data scientist in un gruppo come Intesa Sanpaolo è molto più vicino all’idea di innovazione di quanto si possa pensare. «Nulla che sia umano mi è estraneo» dice Cosentini citando Publio Terenzio per parlare di curiosità e, applicata ai dati e al digitale, questa massima risulta la chiave del cambiamento.
Creare una banca agile, è un vantaggio per tutti
14 aprile 2022
Articoli consigliati
-
Innovation sparksAI e innovazione dei dati: come l’intelligenza artificiale cambia i processi e protegge le informazioniNaica Tedesco, Senior Manager di Target Reply con anni di esperienza nella consulenza strategica dei dati, condivide una visione pragmatica sull’AI, in cui il potenziale innovativo si bilancia con la necessità di garantire sicurezza e privacy.
-
Innovation sparksDall'analisi predittiva all'etica dei dati: il futuro della Loss Prevention nel RetailNel settore retail, dove margini sempre più sottili e complesse catene di fornitura richiedono costanti sforzi di ottimizzazione, il tema della prevenzione delle perdite (Loss Prevention) emerge con forza.
-
Innovation sparksLe previsioni di SAS per il 2025: L'AI si specializza e abbraccia la sostenibilitàExecutive di SAS hanno esplorato il futuro per anticipare tendenze e sviluppi chiave nel business e nella tecnologia per il 2025. Ecco alcune delle loro previsioni.
-
Innovation SparksSAS Viya Workbench: il futuro dell’Intelligenza Artificiale è quiSAS Viya Workbench è l'ambiente di lavoro flessibile e adattabile che offre agli utenti la libertà di sviluppare modelli di AI e machine learning con una velocità e una coerenza senza rivali.