Innovation sparks
Pensiero critico e sano scetticismo, le basi per promuovere il “senso comune” dell’IA
Articolo di Reggie Townsend, Vice President, SAS Data Ethics Practice (DEP)
Guidare un percorso responsabile di adozione dell’intelligenza artificiale nelle nostre vite, sia a livello personale che professionale, implica buonsenso (nell’accezione di senso pratico) nel comprenderne gli impatti, positivi e negativi, al fine di poterne cogliere le reali opportunità.
L'accelerazione dello sviluppo e dell'applicazione dell'intelligenza artificiale (IA) sta contribuendo a democratizzare l’accesso alle tecnologie e ha un potenziale incredibile nel migliorare e rendere più efficace il processo decisionale nelle aziende.
Esiste tuttavia un’altra faccia della medaglia, quella legata ai rischi. L’uso diffuso dell’intelligenza artificiale, infatti, sta contribuendo a diffondere disinformazione, a fomentare le divisioni e perpetuare ingiustizie storiche e discriminazioni.
Tali criticità sollevano con urgenza la necessità di promuovere il “senso comune dell'IA” tra il pubblico, incoraggiando una comprensione di base dei benefici, dei limiti e delle vulnerabilità che l'intelligenza artificiale potrebbe sfruttare o creare. In altre parole, una comprensione di come l'IA influisce – e influirà sempre più – sulle nostre vite, personali e professionali.
Migliorare le nostre capacità di pensiero critico e mantenere un sano scetticismo nei confronti dei sistemi di IA è fondamentale per promuovere quel senso comune necessario per poter cogliere le reali opportunità della tecnologia, mitigandone al contempo i rischi. Reggie Townsend Vice President, SAS Data Ethics Practice (DEP) SAS
Conoscere le basi
Seppur con un po’ di azzardo, potremmo paragonare l'intelligenza artificiale all'elettricità. La maggior parte di noi non ha una comprensione dettagliata di come funzionano gli elettroni, i trasformatori e i cavi di messa a terra, ma tutti conosciamo le basi: inseriamo qualcosa in una presa di corrente e questa alimenta i nostri dispositivi, elettrodomestici, ecc. Abbiamo anche una comprensione comune della sicurezza elettrica di base. Teniamo gli attrezzi e le mani lontano dalle prese di corrente e non lasciamo che i dispositivi o i cavi elettrici tocchino l'acqua. Anche se probabilmente queste regole sono state comprese in modo più avanzato durante le lezioni di scienze, esse costituiscono il “senso comune” generale dell'elettricità che la maggior parte di noi ha appreso prima di qualsiasi istruzione formale.
Il buon senso in materia di IA dovrebbe includere una comprensione generale delle funzioni e dei rischi dell'intelligenza artificiale a un livello base, soprattutto con il moltiplicarsi delle capacità della tecnologia.
È facile perdersi in conversazioni sull'apprendimento automatico, le reti neurali e i modelli linguistici di grandi dimensioni. Tuttavia, non è necessario che tutti gli utenti abbiano familiarità con questi termini per essere consapevoli dell'impatto dell'IA sulla loro vita quotidiana, compresi i potenziali pericoli.
Promuovere il “senso comune”
Ciò che dovremmo fare, quindi, è promuovere il buon senso dell'IA in un mondo dove la tecnologia è sempre più pervasiva. Come? Per esempio, focalizzandoci su alcuni importanti aspetti quali:
Riconoscere la natura umana e l'IA
Nell'attuale panorama tecnologico in rapida evoluzione, è facile lasciarsi travolgere dal fascino delle capacità dell'IA. Tuttavia, dobbiamo riconoscere che i sistemi di IA sono creati dall'uomo, il che significa che possono portare con sé pregiudizi e limiti umani.
Questi pregiudizi possono manifestarsi nei dati utilizzati per addestrare l'IA, portando a potenziali discriminazioni o trattamenti ingiusti.
Ad esempio, gli algoritmi di IA utilizzati nei processi di assunzione, se addestrati su dati “distorti” (contaminati cioè da bias), possono inavvertitamente favorire alcuni dati demografici rispetto ad altri.
Sebbene i pregiudizi appresi possano essere pervasivi nelle implementazioni di IA, non sono irrisolvibili. Moltissimi professionisti stanno lavorando per mitigare l'iniquità nei sistemi di IA affrontando il problema da tutte le direzioni:
- addestrando i modelli con dati ampi, inclusivi e diversificati;
- testando i modelli per verificare l'impatto su diversi gruppi e monitorandoli regolarmente per verificarne la deriva nel tempo;
- introdurre “assunzioni al buio” basate sulle competenze per i team di sviluppo (guardando cioè solo le competenze senza nessun’altro tipo di dato e informazione);
- combinando le abilità delle persone con le potenzialità della tecnologia per formare un sistema di pesi e contrappesi che possa annullare i pregiudizi involontari.
Combattere i pregiudizi sull'automazione
Il pregiudizio dell'automazione si verifica quando le persone si fidano di sistemi automatizzati, come l'intelligenza artificiale, piuttosto che del loro giudizio, anche quando il sistema si sbaglia. È opinione comune che le macchine non commettano errori di valutazione come gli esseri umani. Siamo portati a fidarci dei risultati di una calcolatrice, perché è una macchina oggettiva. Ma gli strumenti di IA vanno ben oltre l'addizione e la sottrazione. Infatti, gli specialisti dell'IA sostengono che l'addizione e la sottrazione sono prescrittive o basate su regole, mentre l'IA è di natura predittiva. Anche se sembra secondaria, la distinzione è importante perché aumenta la probabilità che l'IA possa replicare i pregiudizi dei dati passati, creare false connessioni o contaminare le informazioni delle cosiddette “allucinazioni”, ossia informazioni che non esistono ma che sembrano ragionevoli e veritiere a un lettore.
Questo eccessivo affidamento all'IA può avere gravi conseguenze. Nell'assistenza sanitaria, un medico potrebbe affidarsi totalmente a un sistema di intelligenza artificiale per fare una diagnosi a un paziente riponendo nel sistema eccessiva fiducia e attribuendogli affidabilità certa, rinunciando “anche involontariamente e inconsapevolmente, al suo “giudizio di medico”. Riconoscendo questo pregiudizio, possiamo incoraggiare le persone a mettere in discussione i sistemi di IA e a cercare prospettive alternative, riducendo così il rischio di risultati pericolosi. Alcune piattaforme di IA affidabili dispongono di funzioni di “spiegabilità” che aiutano a mitigare questa criticità, fornendo ragioni e contesti aggiuntivi per spiegare perché un modello di IA ha prodotto un determinato risultato, in modo che gli esseri umani abbiano più elementi per poter decidere consapevolmente e responsabilmente se fidarsi o meno dell’output prodotto dalla tecnologia.
Fidarsi ma verificare, promuovere pensiero critico e scetticismo
Incoraggiare una cultura della curiosità può aiutare gli individui a comprendere meglio l'impatto reale delle tecnologie di intelligenza artificiale. Migliorare le nostre capacità di pensiero critico e mantenere un sano scetticismo nei confronti dei sistemi di IA è fondamentale per promuovere quel senso comune necessario per poter cogliere le reali opportunità della tecnologia, mitigandone al contempo i rischi. Ciò significa mettere in discussione i risultati generati dall'IA, riconoscere i possibili limiti dei dati sottostanti ed essere consapevoli dei potenziali pregiudizi degli algoritmi. L'assioma “fidarsi ma verificare” dovrebbe guidare le interazioni con l'IA fino a quando non sarà dimostrata la sua accuratezza ed efficacia, soprattutto in scenari ad alto rischio.
Questo approccio al pensiero critico può consentire agli individui di prendere decisioni informate e di comprendere meglio i limiti dei sistemi di IA. Ad esempio, gli utenti di notizie generate dall'IA dovrebbero essere consapevoli del potenziale di inesattezze o informazioni fuorvianti e dovrebbero verificare le affermazioni provenienti da più fonti. Con applicazioni generative come Dall-E e Midjourney già in grado di produrre immagini fotorealistiche virtualmente indistinguibili dalla realtà, dovremmo tutti essere inclini a mettere in dubbio immagini incendiarie o controverse finché non possiamo confermarne la veridicità con prove a sostegno, come immagini coerenti da più angolazioni e resoconti attendibili in prima persona.
Comprendendo l'elemento umano nell'IA, combattendo i pregiudizi sull'automazione e promuovendo il pensiero critico, possiamo mettere gli individui in condizione di prendere decisioni più informate e contribuire allo sviluppo e all'uso responsabile delle tecnologie dell'IA.
1 settembre 2023
Articoli consigliati
-
Innovation sparksAI e innovazione dei dati: come l’intelligenza artificiale cambia i processi e protegge le informazioniNaica Tedesco, Senior Manager di Target Reply con anni di esperienza nella consulenza strategica dei dati, condivide una visione pragmatica sull’AI, in cui il potenziale innovativo si bilancia con la necessità di garantire sicurezza e privacy.
-
Innovation sparksDall'analisi predittiva all'etica dei dati: il futuro della Loss Prevention nel RetailNel settore retail, dove margini sempre più sottili e complesse catene di fornitura richiedono costanti sforzi di ottimizzazione, il tema della prevenzione delle perdite (Loss Prevention) emerge con forza.
-
Innovation sparksLe previsioni di SAS per il 2025: L'AI si specializza e abbraccia la sostenibilitàExecutive di SAS hanno esplorato il futuro per anticipare tendenze e sviluppi chiave nel business e nella tecnologia per il 2025. Ecco alcune delle loro previsioni.
-
Innovation SparksSAS Viya Workbench: il futuro dell’Intelligenza Artificiale è quiSAS Viya Workbench è l'ambiente di lavoro flessibile e adattabile che offre agli utenti la libertà di sviluppare modelli di AI e machine learning con una velocità e una coerenza senza rivali.