Cosa sono le allucinazioni dell'AI?
Elaine Hamill, SAS Insights Editor
Il mercato globale dell'intelligenza artificiale generativa (GenAI) è destinato a crescere enormemente nei prossimi cinque anni. Come possiamo bilanciare la grande promessa dell'AI con l'esigenza di sicurezza e responsabilità, soprattutto nell'anno in cui si sono celebrate le elezioni presidenziali americane? Iniziamo col capire cosa sono le allucinazioni dell'AI e perché diventa sempre più difficile distinguere la realtà dalla finzione generata dall'AI.
Comprendere le allucinazioni dell'AI
In un mondo ideale, strumenti di generative AI come Gemini di Google e ChatGPT di OpenAI dovrebbero rispondere in modo appropriato a ogni domanda che un utente pone. Dovrebbero fornire risposte corrette e accurate, sempre.
Ma nel mondo reale la GenAI spesso sbaglia. Inventa le informazioni. Le allucinazioni dell'AI si verificano quando i modelli linguistici di grandi dimensioni (LLM), alla base dei chatbot dell'AI, generano informazioni insensate o false in risposta alle richieste degli utenti.
Sono oltre 5,3 miliardi le persone che utilizzano Internet nel mondo e gli LLM che alimentano la generative AI assorbono dati in modo costante e indiscriminato. Tra questi dati vi sono anche i miliardi di video, foto, e-mail, post sui social media e altro ancora che le persone creano ogni singolo giorno.
Alimentata da questo immenso guazzabuglio di dati, la generative AI può individuare informazioni, schemi o oggetti che non esistono. Queste percezioni errate producono le allucinazioni dell'AI, cioè dati, contenuti o risultati che sono falsi, illogici o comunque non accurati.
Sembra strano, ma è vero. L'intelligenza artificiale può percepire, e di fatto percepisce, cose che non sono reali. E le allucinazioni dell'AI vanno dalle fake news più esilaranti a quelle leggermente fuori luogo. Alcune allucinazioni dell'AI possono persino sembrare corrette e risultare convincenti per chi non abbia un occhio o un orecchio allenati.
Le allucinazioni dell'AI e l'effetto domino
Le allucinazioni dell'AI possono avere conseguenze significative e ad ampio raggio, soprattutto quando vengono diffuse rapidamente informazioni errate.
Dal lancio mondiale di ChatGPT nel novembre 2022, centinaia di milioni di persone si sono precipitate sugli strumenti di generative AI. Nell'aprile 2024, oltre 180 milioni di persone utilizzavano la chatbot di OpenAI.
Sfortunatamente, le allucinazioni dell'AI si sono moltiplicate con altrettanta velocità. Con che frequenza si verificano le allucinazioni dell'AI? Basta controllare la Hallucination Leaderboard stilata da Vectara, che nell'aprile 2024 ha indicato che la chatbot GPT4 Turbo è la meno incline alle allucinazioni, con un tasso di errore del 2,5%.
Vale la pena notare che ora ChatGPT ha aggiunto una declinazione di responsabilità che recita: "ChatGPT può commettere errori. Consigliamo di verificare le informazioni importanti." Allo stesso modo, Gemini di Google raccomanda agli utenti di ricontrollare le proprie risposte.
Generativa AI: di cosa si tratta e perché è importante
Consulta la nostra pagina esplicativa per conoscere meglio la GenAI. Leggi la sua storia e come funziona, impara di più sulle tecnologie e i modelli correlati e scopri i vari impieghi nei diversi settori.
Allucinazioni dell'AI: le cause
La causa delle allucinazioni dell'AI non è univoca o definitiva. Tutto può contribuire a generare risultati imprecisi: dai dati insufficienti a quelli errati o viziati da pregiudizi, fino alle molte possibili stranezze che si trovano nelle richieste degli utenti.
La distorsione dei dati di input è la causa principale delle allucinazioni dell'AI. Non sorprende quindi che un modello di intelligenza artificiale addestrato su un set di dati distorto o errato possa produrre allucinazioni negli schemi o nelle caratteristiche che riflettono tali distorsioni o errori. Può succedere che alcuni modelli di AI vengano manipolati di proposito per generare risultati distorti? Sì, assolutamente. Le aziende tecnologiche lo hanno compreso e stanno cercando di tenere testa a questi imbroglioni senza scrupoli. Tuttavia, prevenire i bias nei dati di input prima ancora che si presentino resterà un impegno costante.
Anche l'overfitting e l'underfitting incidono sulle allucinazioni dei modelli. L'overfitting si verifica quando un modello è troppo complesso, cioè quando apprende un po' troppo fedelmente i dettagli e il rumore presenti nei dati di training. I modelli complessi funzionano abbastanza bene sui dati di training. Tuttavia, non sono in grado di estrapolare come dovrebbero e, di conseguenza, offrono prestazioni scarse sui nuovi dati. In pratica, sono troppo tarati sui dati di training per poter offrire previsioni affidabili basate su altri dati.
L'underfitting è l'esatto contrario e si verifica quando un modello è troppo semplice. I modelli che non sono sufficientemente complessi non sono in grado di cogliere i dettagli, gli schemi e le relazioni nei dati di training. Si comportano quindi in modo inadeguato tanto sui dati di training, quanto sui nuovi dati che assorbono.
Azzardando un paragone, potremmo immaginare un LLM come un compattatore di rifiuti, che ingerisce praticamente tutto ciò che può alimentarlo e lo comprime per fare spazio ad altro. Durante il processo, però, i dettagli e i particolari dei dati inseriti nel modello vanno persi.
Probabilmente, grazie alle trame dei film e ai programmi televisivi popolari, gli LLM sembrano in grado di pensare e ragionare. Ma non lo sono, ovviamente. Tutto quel che fanno è prevedere le risposte possibili alle domande poste, sulla base dei dati assimilati. Questi modelli non riescono a fornire risposte perfettamente aderenti alla realtà nel 100% dei casi, almeno non ancora.
Per trovare il livello di complessità ottimale di un determinato LLM occorre impostare correttamente il numero di funzionalità, la quantità di training a cui viene sottoposto e il numero di esempi che riceve.
Anche il prompt engineering può influenzare il risultato di un modello di generative AI. I prompt con un grado di dettaglio e precisione elevato hanno maggiori probabilità di generare risposte o risultati accurati rispetto a quelli vaghi, contraddittori o poco chiari. Dare alla GenAI linee guida o parametri specifici all'interno dei prompt può contribuire a produrre risultati migliori. Allo stesso modo, aggiungere un contesto alle query e persino assegnare agli strumenti di AI un ruolo o una prospettiva specifici può aiutare ad affinare le risposte.
L'impatto delle allucinazioni dell'AI
Le allucinazioni dell'AI hanno evidenti implicazioni nel mondo reale. Consideriamo questi esempi tratti da una varietà di settori e applicazioni.
- Dato che il 2024 è stato l'anno delle elezioni presidenziali americane, la diffusione di informazioni errate per effetto delle allucinazioni dell'AI è un tema di grande attualità in tutto il mondo. Ti stai chiedendo cosa stiano facendo le forze in campo per salvaguardare l'accuratezza e la trasparenza? Ecco in che modo OpenAI ha affrontato le elezioni del 2024.
- Nei servizi finanziari, la GenAI può aiutare a risparmiare denaro, migliorare le decisioni, ridurre i rischi e aumentare la soddisfazione dei clienti. Ma potrebbe anche approvare richieste di credito o prestito non idonee, con il rischio di provocare perdite finanziarie all'istituto. Anche se un giorno potremmo vedere servizi di consulenza sugli investimenti alimentati dall'AI, per ora gli esseri umani sono ancora molto presenti nel ciclo della GenAI. Scopri in che modo la società giapponese Daiwa Securities stia utilizzando l'AI per migliorare il coinvolgimento dei clienti e accrescere il proprio business.
- Le compagnie di assicurazione apprezzano la maggiore velocità, efficienza e precisione offerte dall'AI, ma il suo utilizzo solleva anche potenziali problemi etici e legali, come i pregiudizi o le discriminazioni nei modelli e negli algoritmi. Scopri come l'AI sta cambiando il futuro del settore assicurativo.
- Il settore dell'assistenza sanitaria e delle life science abbonda di promettenti applicazioni di GenAI. Ma ciò può anche dare spazio alla rapida proliferazione di diagnosi imprecise, cartelle cliniche fraudolente e persino immagini false, incluse le radiografie. Scopri di più sulla generative AI nelle mani dei truffatori del settore sanitario.
Il successo dei modelli di AI dipende in larga misura dall'uso di serie di dati ampie, differenziate, equilibrate e di alta qualità, durante il processo di training. Ciò permette ai modelli di minimizzare i pregiudizi e di generare risultati più equi e accurati.
Risolvere e mitigare le allucinazioni dell'AI
Gli sviluppatori dei principali sistemi di intelligenza artificiale sanno bene che anche un tasso di allucinazione minimale è inaccettabile. Cosa si può fare per migliorare l'accuratezza e prevenire le allucinazioni dell'AI?
Il successo dei modelli di AI dipende in larga misura dall'uso di serie di dati ampie, differenziate, equilibrate e di alta qualità, durante il processo di training. Ciò permette ai modelli di minimizzare i pregiudizi e di generare risultati più equi e accurati. Anche ridurre le imprecisioni è importante, poiché la presenza di dati incompleti e anomali può contribuire alle allucinazioni dell'AI.
Un altro strumento per contrastare le allucinazioni dell'AI è l'apprendimento per rinforzo. Tanto il machine learning quanto i feedback umani possono addestrare i modelli di AI a prendere decisioni migliori e a produrre risultati più accurati. Quindi, se una chatbot chiede di valutare la qualità della sua risposta o raccomandazione, è bene farlo! Il feedback non solo aiuta a rafforzare il modello, ma è anche uno dei modi migliori a nostra disposizione per aumentare la qualità dei risultati di GenAI.
Come proteggersi dalle allucinazioni dell'AI
Le allucinazioni dell'AI e i problemi che ne derivano possono essere incredibilmente reali e avere serie ripercussioni sul nostro mondo. I modelli linguistici di grandi dimensioni animano l'AI, ma devono essere usati in modo responsabile per prevenire l'insorgenza di allucinazioni.
Di fronte alla minaccia incombente di una proliferazione di informazioni errate, si stanno intensificando gli sforzi per garantire la tenuta della GenAI ed evitare le allucinazioni. Dagli Nvidia’s NeMo Guardrails ai Guardrails AI e via dicendo, la verifica e la convalida del funzionamento dei modelli di AI sta diventando una questione importante.
Con il passare del tempo, i modelli di Gen AI assimileranno quantità di dati sempre maggiori e perfezioneranno senza sosta i loro output. Tuttavia, finché tutti i contenuti generati dall'AI non saranno verificati e ritenuti accurati e affidabili, gli esseri umani continueranno a svolgere un ruolo importante nel garantire che la GenAI sia all'altezza delle aspettative.
Report sulla Generative AI: leggi i risultati
Abbiamo chiesto ai decision maker quali sfide e opportunità abbiano incontrato durante l'implementazione della generative AI. Fai tesoro delle loro esperienze e scopri come identificare i business case della GenAI utili per te.
Informazioni sull'autrice
Elaine Hamill è una Senior Editor nel team Thought Leadership, Editorial and Content di SAS. È un'esperta nell'utilizzo della parola da sempre, con oltre 25 anni di esperienza nella redazione e revisione di contenuti in diversi settori, tra cui finance, retail, sanità, istruzione e tecnologia.
Letture consigliate
- Cosa sono i chatbot?Il chatbot è una forma di intelligenza artificiale conversazionale progettata per semplificare l'interazione tra uomo e computer. Scopri in che modo i chatbot sono utilizzati nelle aziende e come possono essere incorporati nelle applicazioni di analytics.
- Online payment fraud stops hereBillions of dollars a year are lost to online payment fraud through channels that provide convenient – yet vulnerable – ways to shop and bank. See how to fight back and win with advanced analytics.
- IFRS 9 and CECL: The challenges of loss accounting standardsThe loss accounting standards, CECL and IFRS 9, change how credit losses are recognized and reported by financial institutions. Although there are key differences in the standards for CECL (US) and IFRS 9 (international), both require a more forward-looking approach to credit loss estimation.
Che ne dici di iscriverti subito a Insights?
SAS® Viya™
Rendi gli analytics accessibili e facili da utilizzare a chiunque nella tua azienda