Generativ AI
Vad det är och varför det är viktigt
Generativ AI konsumerar och lär av existerande data för att sedan framställa ny data med liknande egenskaper. Tekniken kan till exempel generera text, bilder, ljud, videor och programmeringskod.
Utvecklingen av generativ AI
Traditionell AI och maskininlärningssystem kan upptäcka mönster i data och göra förutsägelser baserat på detta. Men generativ AI gör mycket mer än så – dess primära funktion är att generera ny data. Föreställ dig att få ett helt färdigskrivet tal på bara några sekunder genom att mata in ett par ord som beskriver din idé i en chattrobot (som ChatGPT). Eller generera musik, konst och bildmaterial utifrån textbaserade beskrivningar. Det går till och med att utveckla en affärsstrategi genom att i samtalsform testköra så kallade ”prompts” med ett verktyg för generativ AI.
Hur började allt?
Till skillnad från vad många tror är generativ AI inget nytt utan har byggts med tekniker som vi redan har använt i decennier, som AI, maskininlärning och statistiska modeller. Tre kärntekniker inom generativ AI är digitala tvillingar, stora språkmodeller och generering av syntetiska data.
Även om ursprunget till generativ AI skulle kunna spåras ännu längre tillbaka, ska vi börja på år 1966 med dialogroboten ELIZA.
Joseph Weizenbaum skapade ELIZA för att imitera Carl Rogers personcentrerad terapi som går ut på att spegla vad patienten säger. ELIZA använde mönstermatchning för att åstadkomma detta. ELIZA var ett av de första programmen att göra turingtestet som går ut på att testa en dators förmåga att uppvisa intelligent beteende – som en människa.
I och med att metoder för att analysera ostrukturerad data togs fram utvecklades bland annat semantiska nätverk, ontologier och återkommande neurala nätverk under 1970- till slutet av 1990-talet. Mellan 2000 och 2015 förbättrades språkmodeller och textinbäddare kontinuerligt och Google Translate skapades.
År 2014 utvecklade Ian Goodfellow och hans kollegor så kallade generativa motståndarnätverk (GAN) genom att låta två neurala nätverk tävla (dvs. tränas) mot varandra. Ett nätverk genererade data medan det andra försökte avgöra om datan var äkta eller falsk. År 2017 lanserades transformatorer. De har en mekanism för så kallad självuppmärksamhet som gör att de kan vikta olika delar av inmatningsdata när de ställer prognoser. Modeller som BERT och ELMo blev populära.
Sedan dök generativa, förtränade transformatorer (GPT) upp och den första GPT-modellen lanserades 2018. Den hade tränats på stora mängder textdata från nätet. Med 117 miljoner parametrar kunde den generera text med liknande stil och innehåll som datan den hade tränats på. År 2023 hade de stora språk-GPT-modellerna utvecklats till den punkt att de uppnådde goda resultat på svåra prov som till exempel det amerikanska examensprovet för advokater.
Den snabba uppgången av generativ AI-teknik
Generativ AI blev en omvälvande teknik med stora effekter och har redan jämförts med upptäckter som elektricitet och tryckpressen. Med sin potential att drastiskt öka produktiviteten har samtalsbaserade AI-modeller som ChatGPT nått enorm popularitet både för privat och professionell användning – och väckt farhågor om dataintegritet, bias i AI, etik och korrekthet. Den globala marknaden för generativ AI beräknas växa till 110,8 miljarder dollar till år 2030.
Beslutsfattare använder digitala tvillingar för att avgöra hur nya skatteåtgärder kan påverka invånarna
Att se vem som vinner och vem som förlorar på eventuella skatteändringar redan innan regelverken ändras är avgörande för Belgiens skattemyndighet Federal Public Service Finance. När de behöver snabba och precisa svar använder FPS Finance Aurora, en digital tvilling till kalkylatorn som behandlar landets inkomstskatter, för att simulera framtida skattereformer. Bättre simuleringar betyder bättre underlag för beslutsfattarna – och bättre resultat.
Vem använder generativ AI?
Generativ AI nyttjas i många olika branscher och affärsfunktioner över hela världen. Samtidigt som tekniken blir alltmer populär väcker den lika delar engagemang som farhågor bland individer, företag och myndigheter. Låt oss ta en titt på hur några branscher använder generativ AI idag.
Resultatet av generativ AI är i all väsentlighet en spegling av oss människor. ... Konsumenter måste fortsätta att ha ett kritiskt förhållningssätt i interaktionen med samtalsbaserad AI och undvika automationsbias (benägenheten att tro att det är mer sannolikt att tekniska system har rätt än människor). Reggie Townsend Vice president för SAS Data Ethics Practice
Överväganden kring generativa AI-modeller
Det är dyrt med modeller – de kräver enorma mängder datorkraft och data. Det är klokt att noggrant utvärdera ROI:n innan man tar en ny generativ AI-modell i drift. Det finns också etiska aspekter som behöver övervägas. Var kommer datan ifrån – och vem äger den? Är den pålitlig? Förstår ni exakt hur modellen är byggd?
Så fungerar generativ AI
Några populära exempel på tekniker som bygger på generativ AI är DALL-E, ett system som genererar bilder utifrån textinmatning, ChatGPT (ett textskapande verktyg) och chattroboten Google Bard samt Microsofts AI-drivna sökmotor Bing. Ett annat exempel är att man kan använda generativ AI för att skapa en digital representation av ett system, affärsprocess eller till och med en person – som en dynamisk representation av individens nuvarande och framtida hälsotillstånd.
Det finns tre huvudtyper av generativa tekniker (digitala tvillingar, stora språkmodeller och generering av syntetiska data).
Digital tvilling
En digital tvilling är en virtuell modell av verkliga föremål eller system som bygger på data som är historisk, från den verkliga världen, syntetisk eller som kommer från ett systems återkoppling. De byggs med mjukvara, data och uppsättningar av generativa och icke-generativa modeller som speglar och synkroniseras med ett fysiskt system – som en enhet, process, system eller produkt. Digitala tvillingar används för att testa, optimera, övervaka och prognosticera. Till exempel kan en digital tvilling av en försörjningskedja hjälpa företag att förutspå när underskott kan uppstå.
Stora språkmodeller
Stora språkmodeller (LLM) är kraftfulla maskininlärningsmodeller som kan behandla och identifiera komplexa relationer i naturligt språk, generera text och föra samtal med användarna. Dessa modeller baserar på tekniker som djup maskininlärning och neurala nätverk. LLM definieras som AI-modeller för naturlig språkbehandling och tränas på massiva volymer av textdata. De resulterande modellerna kan ha upp till flera miljarder olika parametrar. ChatGPT från Open AI är ett exempel på en populär stor språkmodell.
Generering av syntetiska data
Generering av syntetiska data är en datasyntes som sker automatiskt, självbetjänande eller på begäran. Datan skapas via algoritmer eller regler i stället för att samlas in från den verkliga världen. Syntetiska data genereras ofta för att möta krav som inte kan uppfyllas av den verkliga datasatsen. Den reproducerar samma statistiska egenskaper, sannolikheter, mönster och särdrag som den verkliga datan som den har tränats på. Många organisationer använder syntetiska data av integritetsskäl eller för att övervinna andra utmaningar med att samla in och använda verkliga data som kostnader, tidskrävande dataförberedelser och bias.
Många fler tekniker möjliggör och stödjer generativ AI:
En algoritm är en lista av stegvisa instruktioner som tagits fram för att utföra en specifik uppgift eller lösa ett problem. Många datorprogram består av sekvenser av algoritmer som har skrivits på ett sätt som datorn förstår. Allt eftersom algoritmer börjar ersätta eller komplettera mänskligt beslutsfattande måste vi utforska huruvida de är rättvisa och kräva insyn i hur de tas fram.
Med artificiell intelligens kan maskiner lära sig av erfarenheter, anpassa sig till nya inmatningar och utföra uppgifter på ett människoliknande sätt. AI baseras ofta på djup maskininlärning och naturlig språkbehandling. Genom dessa tekniker kan datorer tränas att utföra specifika uppgifter genom att behandla stora mängder data eller känna igen mönster.
Djup maskininlärning är en gren inom maskininlärning som tränar datorer att utföra människoliknande uppgifter som att känna igen tal, identifiera bilder och ställa prognoser. Tekniken använder data för att förbättra sin förmåga att klassificera, känna igen, identifiera och beskriva. Modeller för djup maskininlärning som GAN:er och så kallade variational autoencoders (VAEs) är tränade på massiva datasatser och kan generera nya data av hög kvalitet. Nyare tekniker som StyleGAN:er och transformatormodeller kan skapa realistiska videor, bilder, texter och tal.
Maskininlärning är en metod av dataanalys som automatiserar byggandet av analytiska modeller. Det är en del av artificiell intelligens som tränar maskiner i att lära sig. Maskininlärning grundar sig på idén att system kan lära sig av data, identifiera mönster och fatta beslut med minimal mänsklig inblandning.
Naturlig språkbehandling (NLP) är en gren inom artificiell intelligens som hjälper datorer att förstå, tolka och manipulera mänskligt språk. NLP är tvärvetenskapligt och använder sig bland annat av datorvetenskap och språkteknologi för att överbrygga gapet mellan mänsklig kommunikation och datorers förmåga att förstå.
Neurala nätverk är AI-system med sammankopplade noder som fungerar på ett sätt som liknar hur den mänskliga hjärnans neuroner fungerar. Neurala nätverk använder algoritmer för att upptäcka dolda mönster och korrelationer i rådata för att gruppera och klassificera datan och fortlöpande lära sig och förbättras över tid.
Förstärkningsinlärning är när en algoritm genom försök och misstag lär sig vilka åtgärder som leder till de största belöningarna. För en maskininlärningsmodell bygger förstärkningsinlärning på att använda en belöningssignal som feedbackmekanism för att algoritmen ska lära sig vilken strategi eller vilket mål som är bäst (alltså mest belönande). Detta används ofta inom robotik, gaming och navigering.
5 steg för att finjustera en modell
Generativ AI använder många olika AI-algoritmer och -tekniker för att generera data som har liknande sannolikhetsfördelningar och egenskaper som datan den tränats på. I stället för att bygga en modell från grunden kan du följa dessa fem steg för att finjustera en förtränad stor språkmodell.
1. Definiera uppgiften.
Välj en lämplig förtränad stor språkmodell och definiera tydligt vilken uppgift som modellen nu finjusteras för att utföra. Det kan vara textklassificering (i form av igenkänning av enheter), textskapande osv.
2. Förbered datan.
Samla in och förbered data som är specifik för uppgiften – för uppgifter som kategorisering, formatering och tokenisering. Skapa datasatser för träning och validering (och eventuellt testning).
3. Finjustera.
Träna den justerade modellen på dina specifika data och använd träningsdatan för att uppdatera modellens viktning. Övervaka modellens prestanda på valideringsdatasatsen för att motverka överanpassning.
4. Utvärdera och testa.
Efter träningen är det dags att utvärdera den finjusterade modellen på valideringsdatasatsen och vidta lämpliga åtgärder utifrån resultatet. När du är nöjd testar du modellen på testsatsen för att få en biasfri uppskattning av modellens prestanda.
5. Ta i drift.
När du är nöjd med modellens prestanda kan du ta den i drift för dess avsedda användning. Detta kan bland annat vara att integrera modellen i en app, på en webbplats eller en annan plattform.
Vad är syntetiska data?
Data är väsentligt för att bygga modeller men data av hög kvalitet kan vara svår att hitta, medföra bias eller överskrida budgeten. Ett sätt att lösa dessa problem är att använda syntetiska data som skapas artificiellt (ofta med algoritmer). Genom att använda satser av data från den verkliga världen för att skapa ytterligare syntetiska data – med lämpliga egenskaper för att bygga bra maskininlärningsmodeller – kan vi träna modeller för i stort sett alla tänkbara syften som till exempel att forska på en ovanlig sjukdom.
Nästa steg
Se hur AI-lösningar kan förbättra den mänskliga kreativiteten och strävan.
En plattform för AI-analys
Med SAS® Viya® är inga datamängder för stora. Läs mer om den snabbaste vägen från miljarder datapunkter - till en synvinkel.
Rekommenderad läsning
- Article What is synthetic data? And how can you use it to fuel AI breakthroughs?There's no shortage of data in today's world, but it can be difficult, slow and costly to access sufficient high-quality data that’s suitable for training AI models. Learn why synthetic data is so vital for data-hungry AI initiatives, how businesses can use it to unlock growth, and how it can help address ethical challenges. den 7 november 2024
- Article 3 Essential Steps for Ethical AIWill artificial intelligence benefit humanity or usher in a series of unintended consequences? AI ethics may be one way to ensure artificial intelligence is used for good. den 11 april 2018
- Article AI marketing: What does the future hold?AI marketing uses artificial intelligence and analytics to improve marketing results while enhancing customer experiences through real-time personalization. den 1 februari 2018
- Article Machine learning, data science and AI meet IoTIn this video, Kirk Borne and Michele Null discuss the intersection of machine learning, AI and data science with IoT data and analytics. den 1 februari 2018