L’Intelligenza Artificiale è diventata parte della nostra quotidianità e non è difficile rendersene conto. I suoi impieghi sono molteplici, sia per scopi più semplici e funzionali, sia per scopi molto complessi, delicati e talvolta di importanza vitale. Un tema questo che di cui parleremo ampliamente all’evento “Be Curious. Be Innovative. Le domande di oggi, rivoluzione per il futuro” (4 novembre) nella sessione dedicata moderata da Martina Pennisi, giornalista del Corriere della Sera. Nel frattempo vorrei condividere alcune riflessioni.
L’impatto che l’IA sta avendo sulla trasformazione di società, industrie e mercati si riflette su cittadini, consumatori e lavoratori. In un mondo che si affida sempre di più ai dati e al machine learning per prendere decisioni, è lecito chiedersi se sia corretto, dal punto di vista etico, riporre queste responsabilità nelle “mani” degli algoritmi.
Un esempio capace di accendere la questione su etica e IA è quello dell’auto a guida autonoma. La lista delle buone ragioni per lasciare il volante ad un algoritmo è nettamente più lunga rispetto a quelle per non farlo. Traffico più scorrevole, emissioni di CO2 ridotte, crollo delle probabilità di incidenti, solo per citarne alcune. Da dove sorgono allora i dubbi? La questione etica emerge se pensiamo a come dovrebbe reagire un algoritmo di fronte a situazioni molto complicate: se un pedone attraversa la strada all’improvviso, l’IA dovrebbe evitare a tutti i costi di investirlo, anche se questo significherebbe mettere in pericolo l’incolumità di tutti i passeggeri a bordo? Una scelta insostenibile tanto per un essere umano quanto per un’Intelligenza Artificiale. È proprio qui che si apre il dibattito.
Se un modello per il recruiting del personale aziendale venisse alimentato dai dati di un’azienda che nell’ultimo decennio ha concesso promozioni solo a dipendenti di genere maschile, l’algoritmo non potrà fare altro che escludere ogni candidata dall’elenco delle persone più indicate per il posto di lavoro poiché – considerando i dati fuorvianti forniti all’algoritmo – è improbabile che si riveli una figura di spicco nell’imminente futuro. Se non c’è controllo, tutte le distorsioni e le percezioni errate delle persone si riversano inevitabilmente nel modello. Viene quindi naturale pensare che per creare intelligenze artificiali più eque occorra prima di tutto essere persone più attente ai pregiudizi.
Sfortunatamente, è molto facile che uno o più bias danneggino le soluzioni offerte dall’IA. Questo può accadere in tre diversi momenti del processo:
Proprio quest’ultimo punto diventa cruciale ogni volta che un utente si approccia a soluzioni di Intelligenza Artificiale: è nell’indole umana avere la consapevolezza – e la sicurezza – che le nostre azioni siano frutto principalmente delle nostre scelte. Difficilmente qualcuno delegherebbe le proprie decisioni a un algoritmo senza conoscere benefici e rischi che questo comporta. È per questo che aziende e organizzazioni devono considerare il modo in cui le persone si relazionano con l’IA: i consumatori sono sempre più inclini ad accettare soluzioni di Intelligenze Artificiali a patto che i benefici ottenuti siano molto superiori a rischi e preoccupazioni che ne derivano. Comunicazione chiara e trasparente, possibilità di opt-out e azioni dell’algoritmo personalizzabili diventano così nodi cruciali per convivere con l’Intelligenza Artificiale.
I consumatori sono disposti a premiare le aziende che impiegano l’Intelligenza Artificiale in modo eticamente corretto e trasparente: la fiducia nell’organizzazione o impresa che fornisce il servizio diventa un asset imprescindibile per l’utente. Correttezza, imparzialità, trasparenza, affidabilità ed explainability sono le parole chiave che ogni azienda che si affaccia al mondo delle IA dovrebbe tenere a mente..
La discussione sui provvedimenti legali da adottare in materia di IA è più che mai accesa e L’UE ha annunciato la sua intenzione di regolamentare l’utilizzo e lo sviluppo delle intelligenze artificiali, scatenando una reazione a catena a livello globale.
Oltre ad allinearsi alle future regolamentazioni, sarà fondamentale per le aziende assicurarsi che i modelli vengano pensati e creati considerando le diverse prospettive, i fattori sociali e i bias culturali nascosti dietro le scelte di tutti i giorni, in modo da ridurre al minimo il rischio di alimentare inconsciamente pregiudizi e disparità. Dal momento che i sistemi di IA diventano sempre più complessi, è indispensabile prevedere continue verifiche durante l’intero processo e comunicare con massima trasparenza al momento della distribuzione.
Per sfruttare l’incredibile potenziale dell’Intelligenza Artificiale occorre una sapiente collaborazione tra persone e macchine, in cui – nella gran parte dei casi – saranno sempre e comunque gli esseri umani ad avere l’ultima parola. Di certo, un impiego eticamente corretto dell’IA è di centrale rilevanza per la costruzione di una corporate social responsibility – e di un business – orientati al futuro.