Generativ kunstig intelligens
Hvad det er, og hvorfor det betyder noget
Generativ AI bruger eksisterende data, lærer af dem og genererer derefter data med lignende egenskaber. Den kan f.eks. generere tekst, billeder, lyd, video og computerkode.
Udviklingen af generativ AI
Traditionel AI og maskinlæringssystemer genkender mønstre i data for at lave forudsigelser. Men generativ AI går videre end at forudsige - den genererer nye data som sit primære output. Forestil dig at modtage den fulde tekst til en tale blot få sekunder efter, at du har givet en chatbot (som ChatGPT) et par ord til at beskrive din idé. At generere musik, kunst eller billeder ud fra tekstbaserede beskrivelser. Eller at udvikle en forretningsstrategi gennem samtale, frem og tilbage "prompting" med et generativt AI-værktøj.
Hvor startede det hele?
I modsætning til hvad mange tror, er generativ AI ikke noget nyt - det er bygget på teknologier, vi har brugt i årtier, herunder AI, maskinlæring og statistiske metoder. Tre centrale generative AI-teknologier er digitale tvillinger, store sprogmodeller og generering af syntetiske data.
Oprindelsen til generativ AI kan spores længere tilbage, men vi starter med 1966 og en chatbot ved navn ELIZA.
Joseph Weizenbaum, som byggede ELIZA, designede den til at efterligne Rogerianske psykoterapeuter, som spejler, hvad patienten siger. ELIZA brugte mønstertilpasning til at opnå dette resultat. ELIZA var et af de første programmer, der forsøgte sig med Turing-testen - et imitationsspil, der tester en maskines evne til at udvise intelligent adfærd som et menneske.
Efterhånden som metoderne til at analysere ustrukturerede tekstdata udviklede sig, oplevede man i 1970'erne og 1990'erne en vækst i semantiske netværk, ontologier, tilbagevendende neurale netværk og meget mere. Fra 2000 til 2015 blev sprogmodellering og ordindlejring forbedret, og Google Translate opstod.
I 2014 udviklede Ian Goodfellow og kolleger det generative adversarial network (GAN), hvor de satte to neurale netværk til at konkurrere (dvs. træne) mod hinanden. Det ene netværk genererede data, mens det andet forsøgte at afgøre, om dataene var ægte eller falske. Transformer-modeller blev introduceret i 2017. De inkluderede en selvopmærksomhedsmekanisme, der gjorde det muligt for dem at afveje vigtigheden af forskellige dele af inputtet, når de lavede forudsigelser. Arkitekturer som BERT og ELMo blev også populære.
Generative foruddannede transformatormodeller (GPT) dukkede derefter op, og den første GPT-model kom i 2018. Denne model blev trænet på store mængder tekstdata fra internettet. Med 117 millioner parametre kunne den generere tekst, der i stil og indhold lignede træningsdataene. I 2023 havde GPT-modeller for store sprog udviklet sig til et punkt, hvor de kunne klare vanskelige eksamener, som f.eks. advokateksamen.
Den hurtige fremgang for generativ AI-teknologi
Generativ AI er en banebrydende teknologi, hvis indflydelse er blevet sammenlignet med opdagelser som elektricitet og trykpressen. Med potentialet til drastisk at øge produktiviteten er dialogbaserede AI-modeller som ChatGPT steget voldsomt i popularitet blandt virksomheder og almindelige brugere - og har rejst bekymringer om databeskyttelse, bias i AI, etik og nøjagtighed. Det globale marked for generativ AI forventes at vokse til 110,8 milliarder dollars i 2030.
Politikere bruger den digitale tvillingeteknologi til at afgøre, hvordan nye skatteforanstaltninger kan påvirke borgerne
Det er afgørende for Belgiens Federal Public Service Finance at bestemme "vindere" og "tabere" af potentielle skatteændringer, før de implementeres. Når de har brug for hurtige og præcise svar, bruger FPS Finance Aurora, en digital tvilling af den regnemaskine, der behandler landets indkomstskatter, til at simulere fremtidige gældsreformer. Bedre simuleringer betyder bedre informerede politiske beslutningstagere - og bedre resultater.
Hvem bruger generativ AI?
Generativ AI spænder over en bred vifte af brancher og forretningsfunktioner i hele verden. I takt med at teknologien vokser i popularitet, har den på samme tid udløst begejstring og frygt blandt enkeltpersoner, virksomheder og offentlige instanser. Lad os se på, hvordan nogle brancher bruger generativ AI i dag.
Resultaterne af generativ AI er i bund og grund en afspejling af os mennesker. ... Forbrugerne skal fortsætte med at tænke kritisk, når de interagerer med dialogbaseret AI, og undgå automatiseringsbias (troen på, at et teknisk system er mere tilbøjeligt til at være nøjagtigt og sandt end et menneske). Reggie Townsend vicepræsident for SAS dataetiske praksis
Overvejelser om generative AI-modeller
Modeller er dyre at drive - de kræver enorme mængder computerkraft og data. Du bør nøje evaluere ROI, før du implementerer en generativ AI-model. Der er også etiske overvejelser. Hvor kommer dataene fra - og hvem ejer dem? Er de pålidelige? Forstår du præcist, hvordan modellen blev bygget?
Sådan fungerer generativ AI
Nogle populære eksempler på generative AI-teknologier omfatter DALL-E, et billedgenereringssystem, der skaber billeder ud fra tekstinput, ChatGPT (et tekstgenereringssystem), Google Bard-chatbotten og Microsofts AI-drevne Bing-søgemaskine. Et andet eksempel er at bruge generativ AI til at skabe en digital repræsentation af et system, en forretningsproces eller endda en person - som en dynamisk repræsentation af en persons nuværende og fremtidige sundhedstilstand.
Der er tre hovedtyper af generative teknologier (digitale tvillinger, store sprogmodeller og syntetisk datagenerering).
Digitale tvillinger
Digitale tvillinger er virtuelle modeller af virkelige objekter eller systemer, der er bygget af historiske data, data fra den virkelige verden, syntetiske data eller data fra et systems feedback-loop. De er bygget med software, data og samlinger af generative og ikke-generative modeller, der spejler og synkroniserer med et fysisk system - f.eks. en enhed, proces, system eller produkt. Digitale tvillinger bruges til at teste, optimere, overvåge eller forudsige. For eksempel kan en digital tvilling af en forsyningskæde hjælpe virksomheder med at forudsige, hvornår der kan opstå mangel på varer.
Store sprogmodeller
En stor sprogmodel (LLM) er en kraftfuld maskinlæringsmodel, der kan behandle og identificere komplekse relationer i naturligt sprog, generere tekst og føre samtaler med brugere. Disse modeller er afhængige af teknikker som deep learning og neurale netværk. LLM'er defineres som AI-modeller til behandling af naturligt sprog og trænes på massive mængder af tekstdata. De resulterende modeller har op til milliarder af parametre. OpenAI’s ChatGPT er et eksempel på en populær stor sprogmodel.
Generering af syntetiske data
Når der tales om kunstig datagenerering, menes der on-demand, selvbetjening eller automatiserede data, der genereres af algoritmer eller regler i stedet for at blive indsamlet fra den virkelige verden. Syntetiske data genereres ofte for at opfylde betingelser, der mangler i reelle data. De reproducerer de samme statistiske egenskaber, sandsynligheder, mønstre og karakteristika som de data fra den virkelige verden, de er trænet ud fra. Mange organisationer bruger syntetiske data for at bevare privatlivets fred eller for at overvinde andre udfordringer ved at indsamle og bruge data fra den virkelige verden, såsom omkostninger, tidskrævende datafremstillingsprocesser eller bias.
Mange andre teknologier muliggør og understøtter generativ AI:
En algoritme er en liste med trinvise instruktioner, der er designet til at udføre en bestemt opgave eller løse et problem. Mange computerprogrammer er en sekvens af algoritmer skrevet på en måde, som computeren kan forstå. Når algoritmer begynder at supplere eller erstatte menneskelige beslutninger, må vi undersøge, om de er retfærdige, og kræve gennemsigtighed i, hvordan de udvikles.
Kunstig intelligens gør det muligt for maskiner at lære af erfaringer, tilpasse sig nye input og udføre menneskelignende opgaver. AI er ofte stærkt afhængig af deep learning og NLP. Gennem sådanne teknologier kan computere trænes til at udføre specifikke opgaver ved at behandle store mængder data og genkende mønstre.
Deep learning er en undergruppe af machine learning, der træner en computer til at udføre menneskelignende opgaver, såsom at genkende tale, identificere billeder og lave forudsigelser. Det forbedrer evnen til at klassificere, genkende, opdage og beskrive ved hjælp af data. Deep learning-modeller som GAN'er og variational autoencoders (VAE'er) trænes på massive datasæt og kan generere data af høj kvalitet. Nyere teknikker som StyleGANs og transformermodeller kan skabe realistiske videoer, billeder, tekst og tale.
Machine learning er en metode til dataanalyse, der automatiserer opbygningen af analytiske modeller. Det er en gren af kunstig intelligens, som træner en maskine i at lære. Machine learning er baseret på idéen om, at systemer kan lære af data, identificere mønstre og træffe beslutninger med minimal menneskelig indgriben.
Naturlig sprogbehandling er en gren af kunstig intelligens, der hjælper computere med at forstå, fortolke og manipulere menneskeligt sprog. NLP trækker på mange discipliner, herunder datalogi og computerlingvistik, for at udfylde kløften mellem menneskelig kommunikation og computerforståelse.
Neurale netværk er computersystemer med sammenkoblede knudepunkter, der fungerer ligesom neuroner i den menneskelige hjerne. Neurale netværk bruger algoritmer til at genkende skjulte mønstre og sammenhænge i rådata, gruppere og klassificere dem og løbende lære og forbedre sig over tid.
Reinforcement learning er, når en algoritme gennem forsøg og fejl opdager, hvilke handlinger der giver den største belønning. Reinforcement learning er en maskinlæringsmodel, der er afhængig af et belønningssignal til sin feedbackmekanisme, da den gradvist lærer den bedste (eller mest givende) politik eller målsætning. Den bruges ofte til robotteknologi, spil og navigation.
5 trin til finjustering af en model
Generativ AI er afhængig af mange forskellige AI-algoritmer og teknologier til at generere data, der har lignende sandsynlighedsfordelinger og karakteristika som de data, den lærer fra. I stedet for at bygge op fra bunden kan du følge disse fem trin for at finjustere en forudtrænet grundlæggende stor sprogmodel.
1. Definer opgaven.
Vælg en passende forhåndstrænet stor sprogmodel, og definer klart den opgave, som den skal finjusteres til. Det kan være tekstklassifikation (dvs. genkendelse af enheder), tekstgenerering osv.
2. Forbered dataene.
Indsaml og forarbejd dine opgavespecifikke data - til opgaver som mærkning, formatering og tokenisering. Opret trænings- og valideringsdatasæt (og eventuelt testdatasæt).
3. Finjustering.
Træn den modificerede model på dine opgavespecifikke data, og brug træningsdatasættet til at opdatere modellens vægt. Overvåg modellens ydeevne på valideringsdatasættet for at forhindre overbearbejdning.
4. Evaluer og test.
Efter træningen skal du evaluere din finjusterede model på validationsdatasættet og foretage de nødvendige justeringer baseret på resultaterne. Når du er tilfreds, tester du modellen på testsættet for at få et objektivt skøn over præstationen.
5. Implementér.
Når du er sikker på modellens ydeevne, skal du implementere den til den tilsigtede brug. Det kan indebære at integrere modellen i en applikation, et website eller en anden platform.
Hvad er kunstige data?
Data er afgørende for at opbygge modeller, men data af høj kvalitet kan være svære at finde, forudindtagede eller dyre. En måde at løse disse problemer på er ved at bruge kunstige data, som er skabt kunstigt (ofte med algoritmer). Hvis vi bruger datasæt fra den virkelige verden til at generere yderligere, kunstige data - med passende egenskaber til at bygge gode machine learning-modeller - kan vi træne modeller til stort set ethvert formål, som f.eks. at forske i en sjælden sygdom.
Næste skridt
Se, hvordan AI-løsninger kan øge den menneskelige kreativitet og indsats.
En AI- og analyseplatform
Med SAS® Viya®, er der ikke noget, der hedder for meget information. Lær om den hurtigste måde at komme fra en milliard datapunkter til ét synspunkt.
Anbefalet læsning
- Article What is synthetic data? And how can you use it to fuel AI breakthroughs?There's no shortage of data in today's world, but it can be difficult, slow and costly to access sufficient high-quality data that’s suitable for training AI models. Learn why synthetic data is so vital for data-hungry AI initiatives, how businesses can use it to unlock growth, and how it can help address ethical challenges. 7. november 2024
- Article Three steps for conquering the last mile of analyticsPutting your analytical models into production can be the most difficult part of the analytics journey. It’s no surprise that this last mile of analytics – bringing models into deployment – is the hardest part of digital transformation initiatives for organizations to master, yet it’s the most crucial. 3. december 2019
- Article AI in manufacturing: New opportunities for IT and operationsAn AI survey reveals that leaders and early adopters in AI are making important advances and are identifying and expanding on what works as they use AI in more ways and more parts of their organizations. 29. maj 2019
- Article The Humanity in Artificial IntelligenceCould artificial intelligence be the change agent we need to solve many problems around the globe? Read how AI could accelerate our ability to have a a positive, lasting impact. 10. maj 2019