Generative KI
Was es ist und was man darüber wissen sollte
Generative KI sammelt bereits vorhandene Daten, lernt daraus und generiert Daten mit ähnlichen Eigenschaften, zum Beispiel Text, Bilder, Audio, Video und Computer-Code.
Die Entwicklung von generativer KI
Herkömmliche AI und Systeme für maschinelles Lernen erkennen Datenmuster, um Prognosen zu erstellen. Generative AI kann aber mehr und generiert als primäre Ausgabe neue Daten. Stellen Sie sich vor, Sie geben bei einem Chatbot (wie ChatGPT) wenige Wörter ein, die Ihre Idee beschreiben, und erhalten innerhalb von Sekunden den kompletten Text für einen Vortrag. Oder generieren Sie Musik, Kunst oder Bilder anhand von textbasierten Beschreibungen. Oder entwickeln Sie durch dialogähnliche Interaktionen mit einem generativen AI-Tool eine Geschäftsstrategie.
Anwendungen generativer KI in der
realen Welt
Es wird erwartet, dass generative KI unsere Zukunft auf vorhersehbare und unvorstellbare Weise umgestalten wird. In diesem Erklärvideo sehen Sie reale Beispiele für generative KI in verschiedenen Branchen und Geschäftsbereichen, die große Sprachmodelle, synthetische Daten und digitale Zwillinge verwenden. Sie erfahren auch etwas über einige wichtige Überlegungen und Risiken beim Einsatz generativer KI-Technologie, einschließlich Verzerrungen, Halluzinationen, Datenschutz und Sicherheit.
Wie hat alles begonnen?
Entgegen landläufiger Meinungen ist generative AI nichts Neues. Sie wurde aus Technologien entwickelt, die wir schon seit Jahrzehnten verwenden, darunter AI, maschinelles Lernen und statistische Methoden. Digitale Zwillinge, Large Language Models und die Generierung synthetischer Daten sind die drei Kerntechnologien der generativen AI.
Obwohl die Ursprünge der generativen AI noch weiter in der Vergangenheit liegen, beginnen wir im Jahr 1966 mit einem Chatbot namens ELIZA.
ELIZA wurde von Joseph Weizenbaum entwickelt, um die von Carl Rogers konzipierte Gesprächspsychotherapie zu imitieren, bei der Psychotherapeut:innen das widerspiegeln, was Patient:innen sagen. Diese Leistung konnte ELIZA durch das Abgleichen von Mustern erreichen. ELIZA war eines der ersten Programme, das den Turing-Test versucht hat – ein Imitationsspiel, das die Fähigkeit einer Maschine testet, menschenähnliches Denkvermögen zu zeigen.
Die Weiterentwicklung der Analysemethoden für unstrukturierte Daten von den 1970er bis in die 1990er Jahre führte zu Wachstum bei semantischen Netzwerken, Ontologien, wiederkehrenden neuronalen Netzen und mehr. Von 2000 bis 2015 wurden die Sprachmodellierung und Worteinbettung verbessert und daraus entstand Google Translate.
Im Jahr 2014 entwickelten Ian Goodfellow und seine Kolleg:innen das Generative Adversarial Network (GAN), indem sie zwei neuronale Netze einrichteten, die gegeneinander in Wettbewerb treten (d. h. trainieren) sollten. Dabei generierte ein Netzwerk die Daten, während das andere versuchte zu erkennen, ob die Daten echt oder unecht waren. 2017 wurden Transformator-Modelle mit einem Self-Attention-Mechanismus eingeführt, mit dem sie bei Prognosen die Wichtigkeit verschiedener Teile der Eingabe bewerten konnten. Architekturen wie BERT und ELMo wurden ebenfalls beliebt.
Als Nächstes erschienen Generative Pretrained Transformer-Modelle (GPT), mit der Einführung des ersten GPT-Modells im Jahr 2018. Dieses Modell wurde mit erheblichen Mengen an Textdaten aus dem Internet trainiert. Mit 117 Millionen Parametern konnte es Texte generieren, die im Stil und Inhalt den Trainingdaten ähnelten. Bis 2023 waren die GPT Large Language Models so fortgeschritten, dass sie in schwierigen Prüfungen, wie dem juristischen Staatsexamen, gut abschneiden konnten.
Der rasante Aufstieg der generativen KI-Technologie
Als durchschlagende Technologie betrachtet, wurden die Auswirkungen von generativer AI mit der Entdeckung von Elektrizität und der Erfindung der Druckpresse verglichen. Mit dem Potenzial für massive Steigerungen der Produktivität ist die Popularität von Conversational AI-Modellen wie ChatGPT bei Unternehmen und normalen Benutzer:innen rasant gestiegen. Dazu kommen aber auch Bedenken hinsichtlich des Datenschutzes, einer Voreingenommenheit der AI, der Ethik und der Richtigkeit. Der globale Markt für generative AI wird bis 2030 voraussichtlich auf 110,8 Milliarden USD steigen.
Entscheidungsträger verwenden die digitale Zwillingstechnologie, um zu ermitteln, wie sich neue Steuermaßnahmen auf Bürger:innen auswirken könnten.
Das Ermitteln der „Gewinnenden“ und „Verlierenden“ bei potenziellen Steueränderungen noch vor der Implementierung von Vorschriften ist für Belgiens Föderalen Öffentlichen Dienst Finanzen (FPS Finanzen) äußerst wichtig. Wenn schnelle, genaue Antworten erforderlich sind, verwendet FPS Finanzen Aurora, einen digitalen Zwilling des Einkommenssteuerrechners, um zukünftige Schuldrechtsreformen zu simulieren. Bessere Simulationen führen zu besser informierten Entscheidungsträger:innen – und besseren Ergebnissen.
Wer verwendet generative KI?
Generative KI betrifft eine Vielzahl von Branchen und Geschäftsfunktionen auf der ganzen Welt. Die zunehmend beliebte Technologie hat sowohl Begeisterung als auch Angst bei Einzelpersonen, Unternehmen und staatlichen Organen ausgelöst. Sehen wir uns an, wie verschiedene Branchen generative AI heute nutzen.
Im Kern spiegeln die Ergebnisse der generativen AI uns Menschen wider. ... Verbraucher;innen müssen weiterhin bei Interaktionen mit Conversational AI kritisch denken und den Hang zur Automatisierung vermeiden (d. h. den Glauben, dass ein technisches System wahrscheinlich genauer und wahrheitsgetreuer als ein Mensch sein wird). Reggie Townsend VP of the SAS Data Ethics Practice
Was bei generativen AI-Modellen zu berücksichtigen ist
Das Ausführen von Modellen ist teuer und erfordert gewaltige Mengen an Rechenleistung und Daten. Bevor Sie ein generatives AI-Modell implementieren, sollten Sie den ROI sorgfältig bewerten. Es gibt auch ethische Überlegungen. Wo kommen die Daten her – und und wem gehören sie? Ist das Modell vertrauenswürdig? Verstehen Sie genau, wie das Modell erstellt wurde?
So funktioniert generative KI
Einige beliebte Beispiele für generative AI-Technologien sind DALL-E, ein Bildgenerierungssystem, das Bilder aus Texteingaben erstellt, ChatGPT (ein Text-Generierungssystem), der Google Bard-Chatbot und Bing, die AI-gestützte Suchmaschine von Microsoft. Ein weiteres Beispiel ist die Verwendung von AI, um eine digitale Darstellung eines Systems, eines Geschäftsprozesses oder sogar einer Person zu erstellen – wie zum Beispiel eine dynamische Darstellung des aktuellen und zukünftigen Gesundheitszustandes eines Menschen.
Es gibt drei Hauptarten von generativen Technologien (digitale Zwillinge, Large Language Models und die Generierung synthetischer Daten).
Digitale Zwillinge
Digitale Zwillinge sind virtuelle Modelle von echten Objekten oder Systemen, die aus historischen, echten, synthetischen Daten oder Daten, die aus der Feedback-Schleife eines Systems gewonnen wurden, erstellt werden. Sie werden mit Software, Daten und generativen und nicht-generativen Modellen erstellt, die ein physisches System widerspiegeln und sich mit dem System synchronisieren – wie eine Entität, ein Prozess, ein System oder ein Produkt. Digitale Zwillinge werden zum Testen, Optimieren, Überwachen oder Prognostizieren eingesetzt. Zum Beispiel kann der digitale Zwilling einer Lieferkette Unternehmen helfen, Lieferengpässe vorherzusagen.
Large Language Models
Ein Large Language Model (LLM) ist ein leistungsstarkes Modell für maschinelles Lernens, das komplexe Zusammenhänge in natürlicher Sprache verarbeiten und identifizieren, Texte erstellen und Gespräche mit Nutzer:innen führen kann. Diese Modelle beruhen auf Techniken wie Deep Learning und neuronalen Netzen. LLMs werden als AI-Modelle zur Verarbeitung natürlicher Sprache definiert und werden mit enormen Textdatenmengen trainiert. Die daraus resultierenden Modelle weisen Milliarden von Parametern auf. ChatGPT von OpenAI ist ein Beispiel für ein beliebtes Large Language Model.
Generierung synthetischer Daten
Die Generierung synthetischer Daten bezeichnet On-demand-Daten, automatisierte oder Self-Service-Daten, die von Algorithmen oder Regeln generiert wurden und nicht aus der realen Welt stammen. Synthetische Daten werden oft generiert, um Bedingungen zu erfüllen, wenn echte Daten fehlen. Sie reproduzieren die statistischen Eigenschaften, Wahrscheinlichkeiten, Muster und Besonderheiten der Daten aus der realen Welt, mit denen sie trainiert wurden. Viele Unternehmen verwenden synthetische Daten als Datenschutzmechanismus oder zur Überwindung anderer Schwierigkeiten bei der Sammlung und Verwendung von Daten aus der realen Welt, wie Kosten, zeitaufwändige Datenvorbereitungsprozesse oder Voreingenommenheiten.
Es gibt mehrere andere Technologien, die generative AI ermöglichen und unterstützen:
Bei einem Algorithmus handelt es sich um eine Schritt-für Schritt-Anleitung, um eine bestimmte Aufgabe zu erledigen oder ein Problem zu lösen. Viele Computerprogramme sind eine Abfolge von Algorithmen, die so geschrieben sind, dass der Computer sie versteht. Da Algorithmen menschliche Entscheidungen allmählich ergänzen oder ersetzen, müssen wir deren Fairness überwachen und Transparenz in deren Entwicklung fordern.
Künstliche Intelligenz versetzt Maschinen in die Lage, aus Erfahrung zu lernen, sich auf neu eingehende Information einzustellen und Aufgaben zu bewältigen, die menschenähnliches Denkvermögen erfordern. Oft basiert AI vor allem auf Deep Learning und NLP. Mit diesen Technologien können Computer für bestimmte Aufgaben trainiert werden, indem sie große Datenmengen verarbeiten und Muster erkennen.
Deep Learning ist ein Teilbereich des maschinellen Lernens und trainiert einen Computer für menschenähnliche Aufgaben, wie z. B. Spracherkennung, Bildklassifizierung oder Vorhersagen. Es verbessert die Fähigkeiten der Klassifizierung, Erkennung, Entdeckung und Beschreibung mit Hilfe von Daten. Deep Learning-Modelle wie GANs und variable Autoencoder (VAEs) werden anhand enormer Datensätze trainiert und können qualitativ hochwertige Daten generieren. Neuere Techniken wie StyleGANs und Transformer-Modelle können realistische Videos, Bilder, Texte und Sprache erstellen.
Maschinelles Lernen ist eine Datenanalysemethode, die das automatisierte Erstellen von Analysemodellen ermöglicht. Es ist ein Zweig der künstlichen Intelligenz, der Maschinen das Lernen beibringt. Maschinelles Lernen basiert auf dem Gedanken, dass Systeme aus Daten lernen, Muster erkennen und Entscheidungen treffen können – mit minimaler menschlicher Intervention.
Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilbereich der künstlichen Intelligenz. Sie soll Computer in die Lage versetzen, menschliche Sprache zu verstehen, zu interpretieren und zu manipulieren. NLP will die Lücke zwischen menschlicher Kommunikation und den Sprachverarbeitungsfähigkeiten von Computern schließen und greift dazu auf eine Vielzahl von Disziplinen zurück, unter anderem die Informatik und die Computerlinguistik.
Neuronale Netze sind Computersysteme, bestehend aus miteinander verbundenen Knoten, die ähnlich wie Neuronen im menschlichen Gehirn funktionieren. Anhand von Algorithmen können neuronale Netze verborgene Muster und Korrelationen in Rohdaten erkennen, diese clustern und einordnen, kontinuierlich lernen und im Laufe der Zeit besser werden.
Bestärkendes Lernen bedeutet, dass ein Algorithmus durch systematisches Ausprobieren erkennt, welche Aktionen die größten Vorteile erbringen. Bestärkendes Lernen ist ein Modell maschinellen Lernens. Sein Feedback-Mechanismus beruht auf einem Belohnungssignal, während es nach und nach die beste Strategie oder das beste Ziel (oder die mit der höchsten Belohnung) ermittelt. Es kommt häufig im Zusammenhang mit Robotik, Gaming und Navigation zum Einsatz.
5 Schritte zur Optimierung eines Modells
Generative KI beruht auf verschiedenen AI-Algorithmen und Technologien, um Daten zu generieren, die ähnliche Wahrscheinlichkeitsverteilungen und Eigenschaften wie die Daten aufweisen, mit denen sie trainiert wird. Befolgen Sie diese fünf Schritte, um ein vortrainiertes grundlegendes Large Language Model zu optimieren, anstatt ein neues zu erstellen.
1. Die Aufgabe definieren.
Wählen Sie ein geeignetes vortrainiertes Large Language Model aus und definieren Sie die Aufgabe genau, für die es optimiert wird. Hier könnte es sich um Textklassifizierung (d. h. Entitätserkennung), Textgenerierung usw. handeln.
2. Daten vorbereiten.
Sammeln und verarbeiten Sie Ihre aufgabenspezifischen Daten im Voraus – für Aufgaben wie Benennung, Formatieren und Tokenisierung. Erstellen Sie Datensätze für das Trainieren und die Validierung der Datensätze (und möglicherweise Testdatensätze).
3. Optimieren.
Trainieren Sie das modifizierte Modell mit Ihren aufgabenspezifischen Daten und verwenden Sie den Trainingsdatensatz, um die Gewichtung des Modells zu aktualisieren. Überwachen Sie die Performance des Modells im Validierungsdatensatz, um eine Überanpassung zu verhindern.
4. Bewerten und Testen.
Nach der Trainingphase sollten Sie Ihr optimiertes Modell anhand des Validierungsdatensatzes bewerten und basierend auf den Ergebnissen Anpassungen vornehmen. Wenn Sie mit den Ergebnissen zufrieden sind, testen Sie das Modell im Testdatensatz, um eine unverzerrte Schätzung der Performance zu erhalten.
5. Bereitstellen.
Wenn Sie von der Performance des Modells überzeugt sind, stellen Sie es für den gewünschten Zweck bereit. Hierbei könnte es sich um die Integration des Modells in eine Anwendung, eine Website oder eine andere Plattform handeln.
Was sind synthetische Daten?
Daten sind für das Erstellen von Modellen äußerst wichtig. Es kann jedoch schwierig sein, qualitativ hochwertige, nicht verzerrte und kostengünstige Daten zu finden. Dieses Problem kann man mit dem Einsatz synthetischer Daten überwinden, die künstlich erstellt werden (oft durch Algorithmen). Wenn wir Datensätze aus der realen Welt verwenden, um zusätzliche, synthetische Daten zu generieren – mit den richtigen Eigenschaften, um gute Modelle für maschinelles Lernen zu erstellen – können wir Modelle für fast jeden Zweck trainieren, wie z. B. die Erforschung einer seltenen Krankheit.
Nächste Schritte
Erfahren Sie, wie AI-Lösungen menschliche Kreativität und Vorhaben bereichern können.
Eine AI- und Analytics-Plattform
Mit SAS® Viya® immer die richtigen Informationen erhalten. Erfahren Sie, wie Sie am schnellsten von einer Milliarde Datenpunkten zu einem Standpunkt kommen.
Literaturempfehlungen
- Article Analytics: A must-have tool for leading the fight on prescription and illicit drug addictionStates and MFCUs now have the analytics tools they need to change the trajectory of the opioid crisis by analyzing data and predicting trouble spots – whether in patients, prescribers, distributors or manufacturers. The OIG Toolkit with free SAS® programming code makes that possible. 15. Juni 2022
- Article AI in manufacturing: New opportunities for IT and operationsAn AI survey reveals that leaders and early adopters in AI are making important advances and are identifying and expanding on what works as they use AI in more ways and more parts of their organizations. 29. Mai 2019
- Article 3 Essential Steps for Ethical AIWill artificial intelligence benefit humanity or usher in a series of unintended consequences? AI ethics may be one way to ensure artificial intelligence is used for good. 11. April 2018
- Research Nerd in the herd: protecting elephants with data scienceA passionate SAS data scientist uses machine learning to detect tuberculosis in elephants. Find out how her research can help prevent the spread of the disease. 7. April 2018