Generatywna AI
Teoria i praktyka
Generatywna AI wykorzystuje dostępne dane, uczy się na ich podstawie, a następnie generuje dane o podobnym charakterze. Potrafi na przykład generować tekst, obrazy, dźwięk, wideo i kod komputerowy.
Ewolucja generatywnej AI
Tradycyjna AI i systemy uczenia maszynowego rozpoznają prawidłowości w danych, aby tworzyć prognozy. Generatywna AI wykracza jednak poza prognozowanie, a jej głównym celem jest tworzenie nowych danych. Wyobraź sobie, że otrzymujesz pełny tekst przemówienia zaledwie kilka sekund po opisaniu chatbotowi (takiemu jak ChatGPT) ogólnego zamysłu w kilku słowach, generujesz muzykę, dzieła sztuki lub obrazy na podstawie opisów tekstowych albo opracowujesz strategię biznesową poprzez przekazywanie narzędziu opartemu na generatywnej AI kolejnych podpowiedzi.
Od czego to wszystko się zaczęło?
Wbrew powszechnej opinii generatywna AI nie jest niczym nowym – została opracowana na podstawie technologii, z których korzystamy od dekad, w tym AI, uczenia maszynowego i metod statystycznych. Trzy podstawowe technologie wykorzystywane przez generatywną AI to cyfrowe bliźniaki, duże modele językowe i generowanie danych syntetycznych.
Choć początki generatywnej AI sięgają jeszcze wcześniej, zaczniemy od 1966 roku i chatbota o nazwie ELIZA.
Joseph Weizenbaum, który zbudował ELIZĘ, zaprojektował ją tak, aby naśladowała psychoterapeutów rogeriańskich, którzy powtarzają to, co mówi pacjent. Aby móc działać w taki sposób, ELIZA wykorzystywała dopasowywanie wzorców. Była jednym z pierwszych programów, które spróbowały przejść test Turinga – „grę w udawanie” sprawdzającą zdolność maszyny do przejawiania inteligentnych zachowań przypominających te ludzkie.
Od lat 70. do 90. XX wieku – w miarę doskonalenia metod analizy nieustrukturyzowanych danych tekstowych – poczyniono znaczne postępy w zakresie sieci semantycznych, ontologii, rekurencyjnych sieci neuronowych itp. Między 2000 a 2015 rokiem udoskonalono modelowanie językowe i osadzanie słów, a także pojawił się Tłumacz Google.
W 2014 roku Ian Goodfellow wraz ze współpracownikami opracował generatywną sieć przeciwstawną (GAN), konfigurując dwie sieci neuronowe tak, by ze sobą konkurowały (tj. uczyły się od siebie nawzajem). Jedna sieć generowała dane, podczas gdy druga próbowała ustalić, czy są one prawdziwe, czy fałszywe. W 2017 roku wprowadzono modele transformatorowe. Obejmowały one mechanizm samoobserwacji, który podczas prognozowania pozwalał im ustalać wagę różnych części danych wejściowych. Popularne stały się również architektury takie jak BERT czy ELMo.
Następnie pojawiły się generatywne, wstępnie wytrenowane modele transformatorowe (GPT), a pierwszy model GPT powstał w 2018 roku. Model ten został wytrenowany przy użyciu dużej ilości danych tekstowych z Internetu. Dzięki 117 milionom parametrów mógł wygenerować tekst podobny stylistycznie i treściowo do danych treningowych. Do 2023 r. duże modele językowe GPT zostały udoskonalone do poziomu umożliwiającego im sprawne radzenie sobie z trudnymi egzaminami, jak np. egzamin adwokacki.
Szybki rozwój technologii generatywnej AI
Przełomowa technologia generatywnej AI została porównana do odkryć takich jak elektryczność czy prasa drukarska. Konwersacyjne modele AI – np. ChatGPT – które umożliwiają radykalne zwiększenie produktywności, zdobyły ogromną popularność wśród użytkowników prywatnych i biznesowych, wzbudzając jednocześnie obawy związane z prywatnością, stronniczością AI, etyką i prawidłowością przekazywanych informacji. Przewiduje się, że globalny rynek generatywnej AI osiągnie do 2030 roku wartość 110,8 mld USD.
Ustawodawcy wykorzystują technologię cyfrowych bliźniaków do ustalania, w jaki sposób nowe działania podatkowe mogą wpłynąć na obywateli
Określenie – przed wdrożeniem przepisów – kto skorzysta, a kto straci na potencjalnych zmianach podatkowych, ma kluczowe znaczenie dla belgijskiego Federalnego Urzędu Finansów. Gdy urząd ten potrzebuje szybkich i trafnych odpowiedzi, korzysta z Aurory, cyfrowego bliźniaka kalkulatora przetwarzającego krajowe podatki dochodowe, aby z jej pomocą tworzyć symulacje przyszłych reform zadłużenia. Lepsze symulacje oznaczają lepiej poinformowanych ustawodawców, a w efekcie lepsze wyniki.
Kto korzysta z generatywnej AI?
Generatywna AI wykorzystywana jest przez szereg branż i działów biznesowych na całym świecie. Jej rosnąca popularność wzbudza wśród osób prywatnych, firm i podmiotów rządowych jednocześnie ekscytację i strach. Przyjrzyjmy się, jak niektóre branże wykorzystują dziś generatywną AI.
Treści generowane przez generatywną AI są w swej istocie odzwierciedleniem nas, ludzi. (…) Konsumenci muszą nadal krytycznie analizować odpowiedzi konwersacyjnej AI i unikać popełniania błędu automatyzacji (tym terminem nazywamy przekonanie, że system techniczny jest bardziej dokładny i wiarygodny niż człowiek). Reggie Townsend VP of the SAS Data Ethics Practice
Co należy mieć na względzie w kontekście modeli generatywnej AI
Eksploatacja tych modeli jest kosztowna, ponieważ wymagają one ogromnej mocy obliczeniowej i mnóstwa danych. Przed wdrożeniem modelu generatywnej AI musisz dokładnie ocenić zwrot z inwestycji. Pod uwagę należy wziąć również względy etyczne. Skąd pochodzą dane i do kogo należą? Czy są godne zaufania? Czy dokładnie rozumiesz, w jaki sposób model został opracowany?
Jak działa generatywna AI
Spośród popularnych przykładów technologii generatywnej AI warto wymienić DALL-E – system generujący obrazy na podstawie danych tekstowych, ChatGPT – system generowania tekstu, chatbota Google Bard i opartą na AI wyszukiwarkę Bing firmy Microsoft. Kolejnym przykładem jest wykorzystanie generatywnej AI do tworzenia cyfrowego odpowiednika systemu, procesu biznesowego, a nawet osoby – na przykład dynamicznego odpowiednika Twojego obecnego i przyszłego stanu zdrowia.
Istnieją trzy główne rodzaje technologii generatywnych: cyfrowe bliźniaki, duże modele językowe i generowanie danych syntetycznych.
Cyfrowe bliźniaki
Cyfrowe bliźniaki to wirtualne modele rzeczywistych obiektów lub systemów zbudowane na podstawie danych historycznych, rzeczywistych bądź syntetycznych lub pochodzących z pętli sprzężenia zwrotnego danego systemu. Składają się one z oprogramowania, danych oraz zbiorów modeli generatywnych i niegeneratywnych, które odzwierciedlają system fizyczny – np. jednostkę, proces, system lub produkt – i się z nim synchronizują. Cyfrowe bliźniaki służą do testowania, optymalizacji, monitorowania lub prognozowania. Na przykład cyfrowy bliźniak łańcucha dostaw może pomóc firmom przewidzieć, kiedy mogą wystąpić niedobory.
Duże modele językowe
Duży model językowy (LLM) to potężny model uczenia maszynowego, który jest w stanie przetwarzać i rozpoznawać złożone relacje w języku naturalnym, generować tekst i prowadzić rozmowy z użytkownikami. Modele te opierają się na rozwiązaniach technicznych takich jak uczenie głębokie i sieci neuronowe. Modele LLM, definiowane jako modele AI przetwarzające język naturalny, są trenowane na ogromnych ilościach danych tekstowych. Uzyskiwane przy ich pomocy modele mają nawet miliardy parametrów. Przykładem popularnego dużego modelu językowego jest ChatGPT firmy OpenAI.
Generowanie danych syntetycznych
Generowanie danych syntetycznych odnosi się do danych na żądanie, samoobsługowych lub zautomatyzowanych, które nie pochodzą ze świata rzeczywistego, ale są generowane przez algorytmy lub reguły. Dane syntetyczne są często generowane w celu spełnienia warunków, których nie spełniają dane rzeczywiste. Pozwalają uzyskać te same właściwości statystyczne, prawdopodobieństwo, wzorce i cechy co rzeczywiste dane, na których są trenowane. Wiele organizacji korzysta z danych syntetycznych w celu zachowania prywatności lub sprostania innym wyzwaniom związanym z gromadzeniem i wykorzystywaniem danych rzeczywistych, takim jak koszty, czasochłonne procesy przygotowywania danych lub stronniczość.
Generatywna AI wykorzystuje wiele innych technologii:
Algorytm to lista instrukcji „krok po kroku”, zaprojektowanych w celu wykonania określonego zadania lub rozwiązania problemu. Wiele programów komputerowych to sekwencje algorytmów napisanych w sposób zrozumiały dla komputera. Ponieważ algorytmy zaczynają uzupełniać lub zastępować ludzkie decyzje, musimy sprawdzać ich uczciwość i domagać się, aby były opracowywane w transparentny sposób.
Sztuczna inteligencja umożliwia maszynom uczenie się na podstawie doświadczeń, dostosowywanie się do nowych danych wejściowych i wykonywanie zadań typowych dla człowieka. AI często opiera się w dużej mierze na uczeniu głębokim i NLP. Dzięki takim technologiom komputery mogą być szkolone do wykonywania określonych zadań poprzez przetwarzanie dużych ilości danych i rozpoznawanie wzorców.
Uczenie głębokie to podkategoria uczenia maszynowego, która polega na trenowaniu komputera, by wykonywał zadania typowe dla człowieka, takie jak rozpoznawanie mowy i obrazów oraz prognozowanie. Metoda ta poprawia zdolność klasyfikowania, rozpoznawania, wykrywania i opisywania za pomocą danych. Modele uczenia głębokiego, takie jak GAN czy autoenkodery wariacyjne (VAE), są trenowane na ogromnych zbiorach i potrafią generować wysokiej jakości dane. Nowsze techniki, np. StyleGAN i modele transformatorowe, mogą tworzyć realistyczne filmy, obrazy, tekst i mowę.
Uczenie maszynowe jest metodą analizy danych, która automatyzuje tworzenie modeli analitycznych. To gałąź sztucznej inteligencji polegająca na trenowaniu maszyny, aby wiedziała, jak się uczyć. Uczenie maszynowe opiera się na założeniu, że systemy potrafią uczyć się z danych, rozpoznawać wzorce i podejmować decyzje przy minimalnej interwencji człowieka.
Przetwarzanie języka naturalnego (NLP) to gałąź sztucznej inteligencji, która pomaga komputerom rozumieć ludzki język, interpretować go oraz nim manipulować. NLP czerpie z wielu dyscyplin, w tym z informatyki i lingwistyki obliczeniowej, aby wypełnić lukę między komunikacją międzyludzką a interpretacją języka przez komputer.
Sieci neuronowe to systemy obliczeniowe z wzajemnie połączonymi węzłami, które działają podobnie jak neurony w ludzkim mózgu. Sieci neuronowe wykorzystują algorytmy do rozpoznawania ukrytych wzorców i korelacji w nieprzetworzonych danych, grupowania ich i klasyfikowania oraz do ciągłego uczenia się i doskonalenia na przestrzeni czasu.
Uczenie przez wzmacnianie polega na odkrywaniu przez algorytm metodą prób i błędów, które działania przynoszą największe korzyści. Proces ten, będący modelem uczenia maszynowego, opiera się na sygnale nagrody przesyłanym do mechanizmu sprzężenia zwrotnego – w ten sposób maszyna stopniowo uczy się, która zasada lub który cel są najlepsze (czyli oferujące maksymalną nagrodę). Jest on często wykorzystywany w robotyce, grach i nawigacji.
Dopracowywanie modelu w pięciu krokach
Generatywna AI opiera się na wielu różnych algorytmach i technologiach AI w celu generowania danych mających rozkłady prawdopodobieństwa i charakterystyki podobne do danych, z których się uczy. Zamiast budować od zera, możesz wykonać te pięć kroków, aby dostroić wstępnie wytrenowany podstawowy duży model językowy.
1. Definiowanie zadania
Wybierz odpowiedni wstępnie wytrenowany duży model językowy i jasno zdefiniuj zadanie, pod kątem którego ma być dostrajany. Może to być klasyfikacja tekstu (czyli rozpoznawanie jednostek), generowanie tekstu itp.
2. Przygotowanie danych
Zbierz i wstępnie przetwórz dane służące do realizacji określonego zadania – np. oznaczania, formatowania czy tokenizacji. Utwórz treningowe i walidacyjne (oraz ewentualnie testowe) zestawy danych.
3. Dostrajanie
Wytrenuj zmodyfikowany model na danych służących do realizacji danego zadania, używając zestawu danych treningowych do aktualizacji wagi modelu. Monitoruj wydajność modelu za pomocą zestawu walidacyjnego, aby zapobiec przetrenowaniu.
4. Ocena i testy
Po zakończeniu trenowania oceń swój dostrojony model przy użyciu zestawu walidacyjnego, dokonując niezbędnych korekt w oparciu o wyniki. Gdy uznasz efekt za zadowalający, przetestuj model za pomocą zestawu testowego, aby w bezstronny sposób oszacować rezultaty.
5. Wdrażanie
Po upewnieniu się, że model działa wydajnie, przystąp do wdrażania go zgodnie z przeznaczeniem. Proces ten może obejmować integrację modelu z aplikacją, stroną internetową lub inną platformą.
Czym są dane syntetyczne?
Dane są niezbędne do tworzenia modeli, ale znalezienie wysokiej jakości niestronniczych danych bywa trudne lub kosztowne. Jednym ze sposobów na rozwiązanie tych problemów jest wykorzystanie danych syntetycznych, które są tworzone sztucznie (często za pomocą algorytmów). Jeśli użyjemy zestawów danych rzeczywistych do wygenerowania dodatkowych, syntetycznych danych charakteryzujących się właściwościami umożliwiającymi budowanie skutecznych modeli uczenia maszynowego, możemy trenować modele do praktycznie dowolnego celu, np. do badania rzadkiej choroby.
Kierunki rozwoju
Sprawdź, jak rozwiązania z dziedziny AI zwiększają ludzką kreatywność i pomagają realizować przedsięwzięcia.
Platforma AI
SAS® Viya® sprawia, że nie istnieje pojęcie nadmiaru informacji. Poznaj najszybszy sposób na to, jak przekształcić miliard punktów danych w punkt widzenia.
Polecane materiały
- Artykuł 4 strategies that will change your approach to fraud detectionAs fraudulent activity grows and fighting fraud becomes more costly, financial institutions are turning to anti-fraud technology to build better arsenals for fraud detection. Discover four ways to improve your organization's risk posture. 23 maja 2023
- Artykuł AI in government: The path to adoption and deploymentThe government sector is lagging in AI adoption, but awareness of the importance of AI in the public sector is increasing. Our survey indicates that operational issues are requiring governments to turn their attention to AI projects as a way to address important public issues. 14 sierpnia 2019
- Artykuł A guide to machine learning algorithms and their applicationsDo you know the difference between supervised and unsupervised learning? How about the difference between decision trees and forests? Or when to use a support vector algorithm? Get all the answers here. 21 sierpnia 2018
- Artykuł GDPR and AI: Friends, foes or something in between?The GDPR may not be best buddies with artificial intelligence – but GDPR and AI aren't enemies, either. Kalliopi Spyridaki explains the tricky relationship between the two. 12 czerwca 2018