Innovation sparks
Trustworthy AI, sistemi progettati per garantire sicurezza, affidabilità e pratiche etiche
Le organizzazioni di tutto il mondo devono sfruttare dati, analytics e intelligenza artificiale per innovare ed essere più resilienti, ma devono farlo in modo etico, responsabile, affidabile. La Trustworthy AI, l’intelligenza artificiale affidabile, si riferisce a sistemi che incorporano livelli adeguati di responsabilità, inclusività e trasparenza, completezza e robustezza, e sono sviluppati e distribuiti tenendo sempre conto della centralità dell’essere umano.
Perché c'è bisogno di Etica
L’applicabilità dell’intelligenza artificiale spazia ormai dalla medicina alla finanza, dalla logistica al retail, dall’industria manifatturiera a quella dell’energia, dal mercato dei beni di consumo al settore viaggi... man mano che l'IA si diffonderà, influenzerà quasi tutti gli aspetti della società, dalla vita professionale a quella personale. Le opportunità sono incredibili ma vanno di pari passo ai rischi, soprattutto se i sistemi vengono creati, impiegati e gestiti senza un’adeguata governance che tenga conto dell’affidabilità dell’IA (Trustworthy AI).
I sistemi di IA addestrati su dati distorti, solo per citare un concreto esempio, possono apprendere modelli storici di discriminazione nei confronti di donne, soggetti deboli o popolazioni vulnerabili. Se i pregiudizi nei sistemi di IA non vengono identificati e mitigati prima di distribuirli e utilizzarli, i sistemi distribuiti possono ereditare pregiudizi sociali e causare conseguenze indesiderate su vasta scala.
A seguito degli ultimi anni di pandemia e crisi globali, le aziende sono ora sotto pressione per mantenere la fiducia dei clienti, dei partner, dei consumatori e per farlo dovranno gestire l'IA in modo responsabile. Secondo gli ultimi risultati dell’Edelman Trust Barometer Global Report 2023, i consumatori e i dipendenti si aspettano che le aziende li difendano e agiscano in modo etico e competente, dato che il 63% dei consumatori acquista o sostiene i marchi in base alle proprie convinzioni e ai propri valori.
Questa esigenza di fiducia nelle organizzazioni si rifletterà sempre più anche sull'uso dell'IA da parte delle aziende e solo le organizzazioni che potranno dimostrare un uso responsabile ed etico dell'IA avranno maggiore successo.
Il “senso” di una Trustworthy AI
La fiducia nell'uso responsabile dell'IA da parte delle aziende sarà dunque il perno essenziale per il continuo successo dell'attività e delle relazioni con clienti, partner, consumatori. È qui che entra in gioco la Trustworthy AI.
Un impegno concreto nei confronti dell'IA affidabile richiede innanzitutto un allineamento tra le motivazioni che portano un’azienda ad adottare l’intelligenza artificiale e i suoi valori organizzativi esistenti. I valori aziendali devono rappresentare le fondamenta sulle quali costruire il proprio approccio all’uso dell’IA, tenendo conto non solo delle esigenze e degli obiettivi interni (nessuna organizzazione aziendale lecita nasce con l’obiettivo di creare danni), ma anche degli effetti delle proprie scelte all’esterno.
Il significato di “senso” e scopo di una Trustworthy AI, infatti, va costruito tanto sulle motivazioni interne quanto tenendo conto delle pressioni esterne.
Le persone, sia nelle vesti di consumatori finali di un bene o servizio che di lavoratori e professionisti, vogliono fare affari con brand e aziende che dimostrano una forte bussola morale e un impegno comprovato a fare ciò che è giusto.
Molte organizzazioni si stanno già impegnando per creare un ambiente che promuova l'innovazione responsabile. L’IA affidabile deve inserirsi in questi virtuosi meccanismi o essere il perno per costruirli là dove ancora mancano.
In ambito pubblico, i Governi di tutto il mondo stanno cercando di bilanciare i benefici dell'IA con la necessità di proteggere i cittadini dalle potenziali conseguenze negative delle decisioni prese da sistemi autonomi. È per questo che il panorama normativo globale relativo all'IA sta cambiando rapidamente.
Ad oggi, la situazione in termini di regulation è decisamente a macchia di leopardo, ma le aziende non possono attendere che ci sia un quadro normativo uniforme e condiviso globalmente per definire il proprio modello di Trustworthy AI.
Devono familiarizzare con le normative già esistenti, interiorizzare le best practices e le linee guida già disponibili per cogliere le opportunità offerte dall’intelligenza artificiale all’interno però di una efficace strategia che mira alla sua affidabilità.
Gli elementi di una corretta governance della Trustworthy AI
Identificare le motivazioni interne, valutare le pressioni esterne e assimilare i requisiti normativi, sono i tre passaggi fondamentali per stabilire il proprio modello di governance dell'IA affidabile. Coltivare un ambiente di IA affidabile all'interno di un'organizzazione richiede una strategia completa che tenga conto della necessaria supervisione, degli elementi per garantire la conformità, dello sviluppo tecnologico e delle operations, dei processi e di tutte quelle azioni atte a promuovere una cultura diffusa dell'IA affidabile.
Oversight
Il primo passo consiste nello stabilire un sistema di supervisione, che comprende il quadro di riferimento per la governance dell'IA, la strategia dell'IA e la formulazione delle policy aziendali. Il tutto tenendo conto dei valori aziendali e delle motivazioni che spingono verso un approccio e una governance di Trustworthy AI.
Comprendere la propensione, la tolleranza e la soglia di rischio di un'organizzazione, per esempio, può aiutare a definire la strategia, la politica e la supervisione aziendale in materia di progettazione, sviluppo, implementazione e utilizzo dei sistemi di IA. Ad esempio, se un'organizzazione abbraccia la trasparenza come parte della sua strategia di IA affidabile, mitigarne i rischi significa adottare modelli di Explainable AI che consentano di capire come vengono prodotti gli insights o prese determinate decisioni.
Compliance
Sistemi efficaci di gestione del rischio possono essere sfruttati anche in termini di compliance, secondo importante elemento di governance (non solo alle normative esterne ma anche alle politiche interne, quindi in chiave di governance della Trustworthy AI). Per esempio, per identificare in modo proattivo i fattori di rischio man mano che una soluzione di IA continua a essere utilizzata e per modellare un efficace piano di emergenza e di mitigazione.
Operations
Terzo elemento di una corretta governance dell’IA affidabile riguarda la gestione delle operations. Il leadership team dovrebbe creare procedure operative che abbiano senso per l'organizzazione in base alla governance e alla strategia stabilite nel pilastro della supervisione. Queste procedure devono essere pratiche, attuabili e facili da implementare e incorporare dei processi di utilizzo dell’IA (che significa definire in che modo verranno utilizzati i sistemi basati su intelligenza artificiale).
Culture
Infine, è necessario creare una vera e propria cultura condivisa affinché tutti si sentano coinvolti e impegnati nel mantenere alto l’obiettivo dell’IA affidabile.
La SAS Trustworthy AI, ethical by design
SAS ha identificato 6 principi guida per definire il proprio approccio alla Trustworthy AI. Questi principi aiutano tutte le persone di SAS a navigare, gestire e mitigare le tensioni etiche legate all’uso dell’intelligenza artificiale nei modi più produttivi e meno dannosi possibili.
Organizzata dalla Data Ethics Practice (DEP), l’approccio all’IA affidabile di SAS pone un’attenzione particolare alla partecipazione globale e interdisciplinare per acquisire un’ampia gamma di punti di vista e garantire che piattaforma tecnologica, processi e servizi aziendali mantengano l’attenzione sulle persone e seguano sempre un approccio “ethical by design”, dallo sviluppo del prodotto alla strategia di mercato.
Questi i 6 principi guida:
✔ | Centralità umana: promuovere il benessere, l’equità e la centralità umana. |
✔ | Inclusività: garantire l'accessibilità e l'inclusione di prospettive ed esperienze diverse. |
✔ | Responsabilità: identificare e mitigare in modo proattivo gli impatti negativi. |
✔ | Trasparenza: comunicare apertamente l'uso previsto, i rischi potenziali e il modo in cui vengono prese le decisioni. |
✔ | Robustezza: operare in modo affidabile e sicuro, consentendo al contempo meccanismi che valutano e gestiscono i rischi potenziali durante l'intero ciclo di vita del sistema. |
✔ | Privacy e sicurezza: proteggere l'uso e l'applicazione dei dati di un individuo. |
Chi oggi sviluppa tecnologie e soluzioni destinate a prendere decisioni che hanno un impatto significativo sugli esseri umani deve assumersi la responsabilità di garantire risultati trasparenti ed equi.
Un impegno che si sta intensificando, anche grazie alle iniziative di regolamentazione pubblica portate avanti da Europa, Gran Bretagna, Brasile, Canada, Stati Uniti d’America, e molte altre Nazioni e Federazioni, ma che deve essere portato avanti contemporaneamente anche dalle aziende private e dai professionisti del settore, consapevoli che è necessario affrontare, ora, dilemmi etici e tensioni che non possono essere ignorati.
Vuoi saperne di più? Scarica gratuitamente l’ebook
A Comprehensive Approach to Trustworthy AI Governance
8 settembre 2023
Articoli consigliati
-
Innovation sparksAI e innovazione dei dati: come l’intelligenza artificiale cambia i processi e protegge le informazioniNaica Tedesco, Senior Manager di Target Reply con anni di esperienza nella consulenza strategica dei dati, condivide una visione pragmatica sull’AI, in cui il potenziale innovativo si bilancia con la necessità di garantire sicurezza e privacy.
-
Innovation sparksDall'analisi predittiva all'etica dei dati: il futuro della Loss Prevention nel RetailNel settore retail, dove margini sempre più sottili e complesse catene di fornitura richiedono costanti sforzi di ottimizzazione, il tema della prevenzione delle perdite (Loss Prevention) emerge con forza.
-
Innovation sparksLe previsioni di SAS per il 2025: L'AI si specializza e abbraccia la sostenibilitàExecutive di SAS hanno esplorato il futuro per anticipare tendenze e sviluppi chiave nel business e nella tecnologia per il 2025. Ecco alcune delle loro previsioni.
-
Innovation SparksSAS Viya Workbench: il futuro dell’Intelligenza Artificiale è quiSAS Viya Workbench è l'ambiente di lavoro flessibile e adattabile che offre agli utenti la libertà di sviluppare modelli di AI e machine learning con una velocità e una coerenza senza rivali.