Generative AI
Cos'è e come funziona
La Generative AI (GenAI o, in italiano, IA Generativa) si alimenta e apprende dai dati esistenti per generare nuovi dati con caratteristiche analoghe: la GenAI è capace di generare, ad esempio, immagini, testi, audio, video o codice informatico.
L'evoluzione della Generative AI
I sistemi tradizionali di intelligenza artificiale e machine learning riconoscono i modelli presenti nei dati e li usano per fare previsioni. La GenAI, però, non si limita a fare previsioni: il suo output primario è generare nuovi dati. Immagina di inserire in un chatbot (come ChatGPT) qualche parola per descrivere la tua idea e di ricevere alcuni secondi dopo il testo di un intero discorso, oppure di creare musica, arte o immagini a partire da un testo descrittivo. Allo stesso modo, potresti sviluppare una strategia di business dialogando e scambiando idee con uno strumento di Generative AI.
Un po' di storia della Generative AI
Al contrario di quanto si possa pensare, la GenAI non è una novità: si basa su strumenti tecnologici utilizzati da decenni tra cui l'AI, il machine learning e i metodi statistici. Le tecnologie di cui si avvale la Generative AI sono principalmente tre: i digital twin, i modelli linguistici di grandi dimensioni e la generazione di dati sintetici.
Nonostante le origini della Generative AI siano piuttosto remote, partiremo dal 1966 e da un chatbot chiamato ELIZA.
Joseph Weizenbaum, il creatore di ELIZA, ideò questo chatbot ispirandosi agli psicoterapeuti rogersiani che accolgono il paziente creando una relazione di ascolto. Per farlo, ELIZA utilizzava il pattern matching. ELIZA è stato uno dei primi programmi a tentare il Test di Turing, ovvero un gioco di simulazione che testa la capacità di una macchina di manifestare un comportamento intelligente come quello di un essere umano.
Tra gli anni Settanta e Novanta, l'evoluzione dei metodi di analisi dei testi non strutturati ha dato il via allo sviluppo delle reti semantiche, delle ontologie, delle reti neurali ricorrenti e di altro ancora. Tra il 2000 e il 2015 sono migliorati la modellazione linguistica e il word embedding e ha fatto la sua comparsa Google Translate.
Nel 2014 Ian Goodfellow e alcuni suoi colleghi crearono la rete generativa avversaria (GAN, Generative Adversarial Network), impostando due reti neurali in competizione (cioè addestrate) l'una contro l'altra. Una rete generava dati, mentre l'altra tentava di capire se i dati fossero reali o falsi. Nel 2017 comparvero i modelli transformer. Grazie al meccanismo di auto-attenzione, tali modelli riuscivano a pesare l'importanza delle diverse parti di un input per migliorare le proprie analisi previsionali. Divennero inoltre popolare anche architetture come BERT e ELMo.
Successivamente, apparvero i transformer generativi pre-addestrati (GPT, Generative Pre-trained Transformer): il primo modello GPT fu creato nel 2018, addestrato su un'enorme quantità di dati di testo ricavati da Internet. Con i suoi 117 milioni di parametri, era in grado di generare testi simili per stile e contenuto ai dati di addestramento. Già dal 2023, i modelli di linguaggio GPT di grandi dimensioni si sono evoluti a tal punto da porter affrontare con successo anche prove difficili, come l'esame di abilitazione alla professione forense.
Generative AI: una tecnologia in rapida ascesa
La GenAI ha avuto un impatto dirompente, paragonabile a quello di scoperte come l'elettricità e la stampa a caratteri mobili. I modelli di IA conversazionale come ChatGPT si dimostrano capaci di aumentare incredibilmente la produttività e sono diventati molto popolari sia nel mondo business che privato, sollevando al contempo dubbi sulla privacy dei dati, l'obiettività dell'AI, l'etica e l'accuratezza. Si calcola che il giro d'affari mondiale della Generative AI raggiungerà i 110.8 miliardi di dollari entro il 2030.
I policymaker utilizzano la tecnologia dei digital twin per determinare l'impatto delle nuove misure fiscali sui contribuenti.
In Belgio, il Servizio Pubblico Federale delle Finanze, ritiene fondamentale comprendere chi sarà favorito o sfavorito da un'eventuale riforma fiscale, prima di attuarla. Per ottenere risposte rapide e accurate, il Servizio Federale usa Aurora, il digital twin del calcolatore che gestisce le imposte sul reddito del Paese, per simulare le future riforme di risanamento del debito. Simulazioni più accurate si traducono in politiche più consapevoli e in risultati migliori.
Chi utilizza la Generative AI?
Ovunque nel mondo, la GenAI viene utilizzata in una varietà di settori e funzioni aziendali. Malgrado la sua crescente popolarità, questa tecnologia genera contemporaneamente entusiasmo e paura nelle persone, in azienda e nelle istituzioni politiche. Vediamo ora come viene usata oggi la GenAI in alcuni settori.
I risultati della Generative AI, essenzialmente, non sono altro che un riflesso dell'attività umana... I consumatori devono continuare a esercitare il loro pensiero critico ogni qualvolta interagiscono con l'AI conversazionale ed evitare la creazione di bias (la convinzione cioè che un sistema tecnologico sia con ogni probabilità più preciso e veritiero di un essere umano). Reggie Townsend VP of the SAS Data Ethics Practice
Considerazioni sui modelli di Generative AI
Si tratta di modelli molto costosi, che richiedono potenza di elaborazione e quantità di dati elevate. Valuta con attenzione il ROI prima di implementare un modello di GenAI. Ci sono anche questioni etiche da considerare. Da dove provengono questi dati e a chi appartengono? Il modello è affidabile? Sai esattamente com'è stato costruito quel modello?
Come funziona la Generative AI
Esempi conosciuti di tecnologia di Generative AI sono DALL-E, un sistema di generazione di immagini che crea immagini da input di testo, ChatGPT (un sistema di generazione testi), il chatbot di Google Bard e il motore di ricerca di Microsoft, Bing. Un altro esempio è l'uso della Generative AI per creare la rappresentazione digitale di un sistema, di un processo aziendale o persino di una persona, come la rappresentazione dinamica delle condizioni di salute attuali e future di un paziente.
Le tecnologie generative sono essenzialmente di tre tipi (digital twin, modelli linguistici di grandi dimensioni e generazione di dati sintetici).
Digital twin
I digital twin sono modelli virtuali di oggetti reali o sistemi costruiti a partire da dati storici, reali, sintetici o dal ciclo di feedback di un sistema. Sono costruiti con software, dati e raccolte di modelli generativi e non generativi che rispecchiano e si sincronizzano con un sistema fisico, come un'entità, un processo, un sistema o un prodotto. I digital twin vengono utilizzati per testare, ottimizzare, monitorare o prevedere. Un digital twin di una catena di approvvigionamento, ad esempio, potrebbe aiutare le aziende a prevedere quando potrebbero verificarsi delle carenze.
Modelli linguistici di grandi dimensioni
Un modello linguistico di grandi dimensioni (LLM, Large Language Model) è un potente modello di machine learning in grado di elaborare e identificare relazioni complesse nel linguaggio naturale, generare testi e dialogare con gli utenti. Sono modelli che si basano su tecniche come il deep learning e le reti neurali. Questi modelli di AI mirano all'elaborazione del linguaggio naturale e vengono addestrati su enormi quantità di dati di testo. Se ne ricavano modelli che arrivano ad avere miliardi di parametri. ChatGPT di OpenAI è l'esempio di un grande modello linguistico molto diffuso.
Generazione di dati sintetici
La generazione di dati sintetici si riferisce a dati on-demand, self-service o automatizzati generati da algoritmi o regole diversi da quelli raccolti dal mondo reale. I dati sintetici vengono spesso generati per far fronte a condizioni che mancano nei dati reali. Riproducono le stesse proprietà statistiche, probabilità, modelli e caratteristiche dei dati del mondo reale da cui sono addestrati. Molte organizzazioni utilizzano i dati sintetici per preservare la privacy o per risolvere altri problemi legati alla raccolta e all'utilizzo di dati del mondo reale, come costi, processi laboriosi per la preparazione dei dati o bias.
Ci sono molte altre tecnologie che possono abilitare e supportare la Generative AI:
Un algoritmo è una serie di istruzioni che, passo dopo passo, servono a svolgere un compito specifico o risolvere un problema. Molti programmi per computer sono una sequenza di algoritmi scritti in un linguaggio comprensibile dal computer. Dato che gli algoritmi hanno iniziato a integrare o sostituire le decisioni umane, dobbiamo porci il problema della loro correttezza e pretendere trasparenza sul modo in cui vengono sviluppati.
L'intelligenza artificiale consente alle macchine di imparare dall'esperienza, di adeguarsi ai nuovi input e di svolgere compiti simili a quelli umani. Spesso l'AI si basa su deep learning e NPL. Grazie a tali tecnologie, i computer possono essere addestrati a svolgere compiti specifici elaborando grandi quantità di dati e riconoscendo i modelli.
Il deep learning è una branca del machine learning e addestra i computer a svolgere compiti simili a quelli umani, come riconoscere il linguaggio parlato, identificare le immagini e fare previsioni. Migliora la capacità di classificare, riconoscere, rilevare e descrivere attraverso i dati. I modelli di deep learning come le GAN e gli autoencoder variazionali (VAE, Variational AutoEncoder) sono addestrati su enormi set di dati e possono generare dati di alta qualità. Tecniche più recenti come StyleGAN e modelli di transformer riescono a creare immagini e filmati realistici, come pure testi e discorsi.
Il machine learning è un metodo di analisi dati che automatizza la creazione dei modelli analitici. È la branca dell'intelligenza artificiale che addestra una macchina a imparare. Questo apprendimento automatico si basa sull'idea che i sistemi possano imparare dai dati, identificare modelli e prendere decisioni con un intervento umano minimo.
Il Natural Language Processing è la branca dell'intelligenza artificiale che aiuta i computer a comprendere, interpretare e manipolare il linguaggio umano. Per colmare il divario tra la comunicazione umana e la comprensione del computer, l'NLP attinge da molte discipline, tra cui l'informatica e la linguistica computazionale.
Le reti neurali sono sistemi di elaborazione con nodi interconnessi che funzionano in modo molto simile ai neuroni del cervello umano. Le reti neurali utilizzano gli algoritmi per riconoscere modelli e correlazioni nascoste nei dati grezzi, raggrupparli e classificarli, nonché per apprendere e migliorare continuamente nel tempo.
L'apprendimento rinforzato avviene quando un algoritmo scopre, attraverso tentativi ed errori, quali azioni producono i risultati migliori. L'apprendimento rinforzato è un modello di machine learning basato su un segnale di ricompensa tramite un meccanismo di feedback, che consente di apprendere gradualmente la procedura o l'obiettivo migliore o più gratificante. È molto utilizzato nella robotica, nei giochi e nella navigazione.
Come mettere a punto un modello in 5 passaggi
La Generative AI si basa su una grande varietà di algoritmi e tecnologie di AI per generare dati con distribuzioni e caratteristiche probabilistiche simili ai dati da cui apprende. Piuttosto che partire da zero, puoi seguire questi cinque passaggi per mettere a punto un modello di linguaggio preaddestratto di grandi dimensioni.
1. Definisci il task
Scegli un modello di linguaggio di grandi dimensioni pre-addestrato e definisci con chiarezza il compito per il quale viene messo a punto. Per esempio, la classificazione del testo (vale a dire il riconoscimento dell'entità), la generazione di un testo, ecc.
2. Prepara i dati
Raccogli e pre-elabora i dati specifici alla tua attività, per svolgere compiti come il labeling, la formattazione e la tokenization. Crea data set per l'addestramento e la validazione.
3. Ottimizza
Addestra il modello modificato sui dati specifici dell'attività, utilizzando il data set di training per aggiornare il peso del modello. Monitora le prestazioni del modello sulla base del set di validazione per evitare una sovrastima.
4. Valuta e testa
Dopo l'addestramento, valuta il modello che hai messo a punto sulla base del set di validazione, apportando le modifiche necessarie in base ai risultati. Quando sei soddisfatto, testa il modello sulla base del set di validazione per avere una stima oggettiva delle perfomance.
5. Implementa
Quando la performance del modello ti soddisfa, effettua il deployment per l'uso previsto. Potrebbe essere, per esempio, l'integrazione del modello in un'applicazione, un sito web o un'altra piattaforma.
Cosa sono i dati sintetici?
I dati sono fondamentali per creare modelli, ma trovare dati di alta qualità può essere difficile e costoso, e non sempre sono oggettivi. Un modo per risolvere questi problemi è utilizzare dati sintetici, cioè creati artificialmente (spesso attraverso algoritmi). Se utilizziamo i data set del mondo reale per generare dati sintetici aggiuntivi – servendoci di caratteristiche adeguate alla creazione di buoni modelli di machine learning –, possiamo addestrare i modelli praticamente per qualsiasi scopo, come ad esempio la ricerca di una malattia rara.
Passi successivi
Scopri come le soluzioni di AI possono migliorare la creatività e gli sforzi umani.
Una piattaforma di AI e analytics
Con SAS® Viya® i dati non sono mai troppi. Scopri il modo più rapido per trasformare un miliardo di dati in risposte
Letture consigliate
- ARTICOLO Sfruttare i dati sintetici per alimentare l'evoluzione dell'AIScopri perché i dati sintetici sono essenziali per le iniziative basate sull'AI che richiedono un elevato consumo di dati, in che modo le aziende li utilizzano per favorire la crescita e come possono contribuire a risolvere i problemi etici associati. 11 luglio 2024
- ARTICOLO As AI accelerates, focus on 'road' conditionsAI technology has made huge strides in a short amount of time and is ready for broader adoption. But as organizations accelerate their AI efforts, they need to take extra care, because as any police officer will tell you, even small potholes can cause problems for vehicles traveling at high speeds. 7 novembre 2019
- ARTICOLO Data lineage: Making artificial intelligence smarterLear how data lineage plays a vital role in understanding data, making it a foundational principle of AI. 22 gennaio 2019
- ARTICOLO A guide to machine learning algorithms and their applicationsDo you know the difference between supervised and unsupervised learning? How about the difference between decision trees and forests? Or when to use a support vector algorithm? Get all the answers here. 21 agosto 2018