Innovation sparks
Pensiero critico e sano scetticismo, le basi per promuovere il “senso comune” dell’IA
Articolo di Reggie Townsend, Vice President, SAS Data Ethics Practice (DEP)
Guidare un percorso responsabile di adozione dell’intelligenza artificiale nelle nostre vite, sia a livello personale che professionale, implica buonsenso (nell’accezione di senso pratico) nel comprenderne gli impatti, positivi e negativi, al fine di poterne cogliere le reali opportunità.
L'accelerazione dello sviluppo e dell'applicazione dell'intelligenza artificiale (IA) sta contribuendo a democratizzare l’accesso alle tecnologie e ha un potenziale incredibile nel migliorare e rendere più efficace il processo decisionale nelle aziende.
Esiste tuttavia un’altra faccia della medaglia, quella legata ai rischi. L’uso diffuso dell’intelligenza artificiale, infatti, sta contribuendo a diffondere disinformazione, a fomentare le divisioni e perpetuare ingiustizie storiche e discriminazioni.
Tali criticità sollevano con urgenza la necessità di promuovere il “senso comune dell'IA” tra il pubblico, incoraggiando una comprensione di base dei benefici, dei limiti e delle vulnerabilità che l'intelligenza artificiale potrebbe sfruttare o creare. In altre parole, una comprensione di come l'IA influisce – e influirà sempre più – sulle nostre vite, personali e professionali.
Migliorare le nostre capacità di pensiero critico e mantenere un sano scetticismo nei confronti dei sistemi di IA è fondamentale per promuovere quel senso comune necessario per poter cogliere le reali opportunità della tecnologia, mitigandone al contempo i rischi. Reggie Townsend Vice President, SAS Data Ethics Practice (DEP) SAS
Conoscere le basi
Seppur con un po’ di azzardo, potremmo paragonare l'intelligenza artificiale all'elettricità. La maggior parte di noi non ha una comprensione dettagliata di come funzionano gli elettroni, i trasformatori e i cavi di messa a terra, ma tutti conosciamo le basi: inseriamo qualcosa in una presa di corrente e questa alimenta i nostri dispositivi, elettrodomestici, ecc. Abbiamo anche una comprensione comune della sicurezza elettrica di base. Teniamo gli attrezzi e le mani lontano dalle prese di corrente e non lasciamo che i dispositivi o i cavi elettrici tocchino l'acqua. Anche se probabilmente queste regole sono state comprese in modo più avanzato durante le lezioni di scienze, esse costituiscono il “senso comune” generale dell'elettricità che la maggior parte di noi ha appreso prima di qualsiasi istruzione formale.
Il buon senso in materia di IA dovrebbe includere una comprensione generale delle funzioni e dei rischi dell'intelligenza artificiale a un livello base, soprattutto con il moltiplicarsi delle capacità della tecnologia.
È facile perdersi in conversazioni sull'apprendimento automatico, le reti neurali e i modelli linguistici di grandi dimensioni. Tuttavia, non è necessario che tutti gli utenti abbiano familiarità con questi termini per essere consapevoli dell'impatto dell'IA sulla loro vita quotidiana, compresi i potenziali pericoli.
Promuovere il “senso comune”
Ciò che dovremmo fare, quindi, è promuovere il buon senso dell'IA in un mondo dove la tecnologia è sempre più pervasiva. Come? Per esempio, focalizzandoci su alcuni importanti aspetti quali:
Riconoscere la natura umana e l'IA
Nell'attuale panorama tecnologico in rapida evoluzione, è facile lasciarsi travolgere dal fascino delle capacità dell'IA. Tuttavia, dobbiamo riconoscere che i sistemi di IA sono creati dall'uomo, il che significa che possono portare con sé pregiudizi e limiti umani.
Questi pregiudizi possono manifestarsi nei dati utilizzati per addestrare l'IA, portando a potenziali discriminazioni o trattamenti ingiusti.
Ad esempio, gli algoritmi di IA utilizzati nei processi di assunzione, se addestrati su dati “distorti” (contaminati cioè da bias), possono inavvertitamente favorire alcuni dati demografici rispetto ad altri.
Sebbene i pregiudizi appresi possano essere pervasivi nelle implementazioni di IA, non sono irrisolvibili. Moltissimi professionisti stanno lavorando per mitigare l'iniquità nei sistemi di IA affrontando il problema da tutte le direzioni:
- addestrando i modelli con dati ampi, inclusivi e diversificati;
- testando i modelli per verificare l'impatto su diversi gruppi e monitorandoli regolarmente per verificarne la deriva nel tempo;
- introdurre “assunzioni al buio” basate sulle competenze per i team di sviluppo (guardando cioè solo le competenze senza nessun’altro tipo di dato e informazione);
- combinando le abilità delle persone con le potenzialità della tecnologia per formare un sistema di pesi e contrappesi che possa annullare i pregiudizi involontari.
Combattere i pregiudizi sull'automazione
Il pregiudizio dell'automazione si verifica quando le persone si fidano di sistemi automatizzati, come l'intelligenza artificiale, piuttosto che del loro giudizio, anche quando il sistema si sbaglia. È opinione comune che le macchine non commettano errori di valutazione come gli esseri umani. Siamo portati a fidarci dei risultati di una calcolatrice, perché è una macchina oggettiva. Ma gli strumenti di IA vanno ben oltre l'addizione e la sottrazione. Infatti, gli specialisti dell'IA sostengono che l'addizione e la sottrazione sono prescrittive o basate su regole, mentre l'IA è di natura predittiva. Anche se sembra secondaria, la distinzione è importante perché aumenta la probabilità che l'IA possa replicare i pregiudizi dei dati passati, creare false connessioni o contaminare le informazioni delle cosiddette “allucinazioni”, ossia informazioni che non esistono ma che sembrano ragionevoli e veritiere a un lettore.
Questo eccessivo affidamento all'IA può avere gravi conseguenze. Nell'assistenza sanitaria, un medico potrebbe affidarsi totalmente a un sistema di intelligenza artificiale per fare una diagnosi a un paziente riponendo nel sistema eccessiva fiducia e attribuendogli affidabilità certa, rinunciando “anche involontariamente e inconsapevolmente, al suo “giudizio di medico”. Riconoscendo questo pregiudizio, possiamo incoraggiare le persone a mettere in discussione i sistemi di IA e a cercare prospettive alternative, riducendo così il rischio di risultati pericolosi. Alcune piattaforme di IA affidabili dispongono di funzioni di “spiegabilità” che aiutano a mitigare questa criticità, fornendo ragioni e contesti aggiuntivi per spiegare perché un modello di IA ha prodotto un determinato risultato, in modo che gli esseri umani abbiano più elementi per poter decidere consapevolmente e responsabilmente se fidarsi o meno dell’output prodotto dalla tecnologia.
Fidarsi ma verificare, promuovere pensiero critico e scetticismo
Incoraggiare una cultura della curiosità può aiutare gli individui a comprendere meglio l'impatto reale delle tecnologie di intelligenza artificiale. Migliorare le nostre capacità di pensiero critico e mantenere un sano scetticismo nei confronti dei sistemi di IA è fondamentale per promuovere quel senso comune necessario per poter cogliere le reali opportunità della tecnologia, mitigandone al contempo i rischi. Ciò significa mettere in discussione i risultati generati dall'IA, riconoscere i possibili limiti dei dati sottostanti ed essere consapevoli dei potenziali pregiudizi degli algoritmi. L'assioma “fidarsi ma verificare” dovrebbe guidare le interazioni con l'IA fino a quando non sarà dimostrata la sua accuratezza ed efficacia, soprattutto in scenari ad alto rischio.
Questo approccio al pensiero critico può consentire agli individui di prendere decisioni informate e di comprendere meglio i limiti dei sistemi di IA. Ad esempio, gli utenti di notizie generate dall'IA dovrebbero essere consapevoli del potenziale di inesattezze o informazioni fuorvianti e dovrebbero verificare le affermazioni provenienti da più fonti. Con applicazioni generative come Dall-E e Midjourney già in grado di produrre immagini fotorealistiche virtualmente indistinguibili dalla realtà, dovremmo tutti essere inclini a mettere in dubbio immagini incendiarie o controverse finché non possiamo confermarne la veridicità con prove a sostegno, come immagini coerenti da più angolazioni e resoconti attendibili in prima persona.
Comprendendo l'elemento umano nell'IA, combattendo i pregiudizi sull'automazione e promuovendo il pensiero critico, possiamo mettere gli individui in condizione di prendere decisioni più informate e contribuire allo sviluppo e all'uso responsabile delle tecnologie dell'IA.
1 settembre 2023
Articoli consigliati
-
Innovation sparksInnovazione e Trasformazione nell’Area Credito: l’esperienza di TIMTIM ha intrapreso un progetto ambizioso volto a innovare processi, sistemi e organizzazione, con l’obiettivo di migliorare l’efficienza e garantire una gestione sempre più data-driven.
-
Data for GoodAI_PREMie: innovazione e collaborazione per prevenire le complicazioni della preeclampsiaLa ricerca condotta dall'University College di Dublino potrebbe salvare decine di migliaia di vite utilizzando il machine learning per diagnosticare la preeclampsia.
-
Innovation SparksLe Model Card di SAS: una bussola per la trasparenza e l’eccellenza nei modelli di Intelligenza ArtificialeIntegrate nella piattaforma SAS Viya, le Model Card di SAS sono concepite per documentare e chiarire ogni aspetto dei modelli di intelligenza artificiale e machine learning.
-
What's HotUna realtà dell’AI oltre l’hype per il settore sanitario e il mondo Life Science. Le previsioni di SAS per il 2025.Industrie farmaceutiche e mondo della sanità compiono passi decisi verso l’innovazione dell’AI e la digital transformation.