Klicken Sie hier, um zum 1. Teil des Blogs zu gelangen
5 Schrittweise Einführung in komplexere Methoden
In der Umsetzung von Use-Cases mit generativer KI beginnt der Reifungsprozess typischerweise mit einfachen Anwendungen, wie der Automatisierung von Textgenerierung durch Prompt Engineering. Diese initialen Schritte dienen als Grundlage, um ein grundlegendes Verständnis für die Potenziale und Limitationen der KI zu entwickeln. Mit zunehmendem Einsatz und Verständnis beginnen Unternehmen, komplexere Methoden zu integrieren.
Beispielsweise könnte ein Unternehmen, das ursprünglich generative KI nur zur Content-Erstellung genutzt hat, beginnen, tiefere und spezifischere Anwendungen zu erkunden, wie die Personalisierung von Kundenerfahrungen durch KI-generierte Empfehlungen oder die Entwicklung von KI-gestützten Design-Tools, die Nutzereingaben interpretieren und in visuelle Designs umsetzen.
Im Laufe der Zeit werden diese Methoden immer komplexer. Es entstehen Systeme, die nicht nur einfache Aufgaben automatisieren, sondern auch in der Lage sind, aus ihren Interaktionen zu lernen und sich an verändernde Umstände anzupassen. Die Implementierung fortschrittlicher Techniken, wie das Trainieren von KI-Modellen auf spezifische Domänen oder das Nutzen von Transfer Learning, ermöglicht es den KI-Systemen, ihre Leistungsfähigkeit kontinuierlich zu verbessern.
Dieser Prozess der Einführung komplexerer Methoden ist kumulativ und iterativ. Jeder Schritt baut auf dem vorherigen auf, wobei jede neue Methode eine Erweiterung der Möglichkeiten mit sich bringt und gleichzeitig das Gesamtsystem robuster macht. Durch dieses schrittweise Vorgehen wird die Stabilität der Systeme sichergestellt und das Risiko minimiert, das mit größeren Veränderungen verbunden sein könnte.
Abbildung 3: Pyramide als Veranschaulichung von Foundational Models sowie weiter spezialisierter bzw. feinabgestimmter Modelle. Links werden mögliche Datenquellen und rechts beispielhaft einige Modelle dargestellt. Dabei ist besonders wichtig, dass jedes feinabgestimmte Modell (weiter oben in der Pyramide) auf einer guter Grundlage (alle Stufen unterhalb der betrachteten in der Pyramide) basieren sollte.
6 Methoden im Detail
Wir werden nun einige Methoden genauer betrachten, um einen umfassenden Überblick zu erhalten. Die Auswahl und Kombination der Methoden hängt dabei maßgeblich vom jeweiligen Anwendungsfall ab.
In folgender Abbildung sind viele der folgenden Methoden sowie einige weitere Konzepte dargestellt.
Die vorgestellten Methoden lassen sich in verschiedene Phasen des Lebenszyklus unterteilen, etwa
- Select & Prompt:
In dieser Phase werden geeignete Datenquellen und Inhalte ausgewählt und Eingabeaufforderungen (Prompts) für das KI-System gestaltet. Ziel ist es, durch die Auswahl relevanter Daten und die Formulierung präziser Prompts effektive und zielgerichtete Ergebnisse von der KI zu erhalten. - Adapt and Serve:
In dieser Phase geht es darum, KI-Modelle an spezifische Anwendungsfälle anzupassen und sie für den Einsatz bereitzustellen. Dies kann das Feintuning von Modellen auf spezifische Domänen oder die Integration von KI in nutzerfreundliche Anwendungen beinhalten. - LLMOps:
Dies steht für „Large Language Model Operations“ und bezieht sich auf das Management und die Wartung großer Sprachmodelle. Es umfasst Praktiken zur Skalierung, Überwachung und Aktualisierung von großen KI-Modellen, um ihre Leistung und Effizienz zu gewährleisten. Im Wesentlichen beschreibt LLMOps die Andwenung bzw. Spezialisierung von MLOPs auf Large Language Models. - Prep, Train, Tune:
Diese Phase beinhaltet die Vorbereitung der Daten, das Training der KI-Modelle und deren Feinabstimmung, um die Genauigkeit und Relevanz der KI-Ausgaben zu maximieren. Dieser Prozess ist entscheidend, um hochwertige KI-Systeme zu entwickeln. - Responsible AI Layer:
Diese Kategorie bezieht sich auf den Einsatz verantwortungsvoller KI-Praktiken, die ethische, faire und transparente KI-Systeme gewährleisten - Securtiy and Privacy:
Diese Stufe betrifft die Sicherstellung der Sicherheit und des Datenschutzes innerhalb des KI-Systems. Dazu gehören Maßnahmen zur Verhinderung unbefugten Zugriffs, zum Schutz sensibler Daten und zur Einhaltung von Datenschutzvorschriften.
Abbildung 4: Veranschaulichung und Zusammenhang wesentlicher Komponenten des Lebenszyklus von Generativer KI. Viele der aufgezeigten Methoden finden sich in dieser Abbildung wieder. Da das Feld der Generativen KI sich schnell entwickelt, wird diese Darstellung schnell nicht mehr aktuell sein, aktueller Stand Ende 2023.
6.1 Prompt Tuning oder Prompt Engineering
Prompt Engineering ist ein Prozess, der darauf abzielt, die Eingabeaufforderungen (Prompts) für ein Modell zu optimieren, um die gewünschten Ausgaben zu erzielen. Beim Prompt Engineering werden spezifische Instruktionen sorgfältig konstruiert, um die Leistungsfähigkeit von GenAI-Modellen zu maximieren.
In der Praxis bedeutet Prompt Engineering, die Prompts so zu gestalten, dass sie die KI zu Antworten leiten, die nützlich, präzise und dem Kontext angemessen sind. Dies erfordert Experimentieren und Testen, um die bestmöglichen Prompts zu identifizieren.
Im kommerziellen Umfeld wird Prompt Engineering häufig eingesetzt, um Content-Erstellung, Kundenservice, Programmierung und andere Anwendungen zu verbessern. Zum Beispiel könnte ein Unternehmen ein KI-Modell verwenden, um Produktbeschreibungen zu generieren. Ein gut entworfener Prompt könnte die KI dazu bringen, kreativere, detailliertere und markenspezifischere Beschreibungen zu produzieren, als es mit generischen Prompts der Fall wäre.
Prompt Engineering ist auch wichtig für die Implementierung von Ethik und Fairness in KI-Systemen. Durch sorgfältige Gestaltung der Prompts kann sichergestellt werden, dass die Antworten der KI-Modelle keine unerwünschten Vorurteile oder diskriminierende Sprache enthalten.
Weiter werden komplexere Methoden oft durch Prompt Engineering unterstützt, indem sie als eine Art Einstiegspunkt oder Rahmen für die weiterführende Verarbeitung durch die KI dienen.
6.2 Few-shot Learning and Rapid Adaptation (FLARE)
FLARE (Few-shot Learning and Rapid Adaptation) ist eine Technik im Bereich des maschinellen Lernens, die darauf abzielt, KI-Modelle mit einer minimalen Menge von Trainingsdaten effektiv zu trainieren und anzupassen. Hierbei wird ein Modell verwendet, das bereits auf einer umfangreichen Datenmenge vortrainiert wurde und somit ein breites Verständnis verschiedener Muster und Konzepte erlangt hat. Das konkrete Vorgehen kann folgendermaßen aussehen:
- Vortraining: Zuerst wird ein KI-Modell auf einer großen, vielfältigen Datenmenge vortrainiert. Dies ermöglicht es dem Modell, allgemeine Muster und Strukturen zu lernen, die über viele Anwendungsfälle hinweg nützlich sind. Hier können aber auch bereits vortrainierte foundational Models verwendet werden.
- Few-shot Training: Anstatt das Modell von Grund auf mit einer neuen, umfangreichen Datenmenge zu trainieren, wird es nun mit einer kleinen Anzahl von Beispielen (den „shots“) für eine spezifische Aufgabe nachtrainiert. Diese Beispiele repräsentieren die neue Aufgabe oder den neuen Kontext, den das Modell bewältigen soll.
- Rapid Adaptation: Durch Techniken wie Meta-Learning oder Transfer Learning passt sich das Modell schnell an die neue Aufgabe an. Es nutzt sein bereits erworbenes Wissen und verfeinert seine Fähigkeiten, sodass es auch mit wenigen Beispielen effektiv arbeiten kann.
- Anwendung: Das so angepasste Modell kann dann für die spezifische Aufgabe eingesetzt werden, beispielsweise um Muster in neuen Daten zu erkennen oder Vorhersagen zu treffen, auch wenn nur begrenzte Informationen verfügbar sind.
FLARE-Techniken sind besonders in Szenarien hilfreich, wo Datensätze klein sind oder schnell wechselnde Anforderungen bestehen. In der generativen KI werden solche Techniken oft genutzt, um Modelle an spezifische Anforderungen von Nutzern oder spezifische Anwendungsfälle anzupassen, ohne jedes Mal ein neues Modell von Grund auf neu trainieren zu müssen. Oft werden, wie bereits angesprochen, vortrainierte Modelle ähnlich GPT3 oder GPT4 verwendet und mit FLARE nachtrainiert.
6.3 Retrieval-Augmented Generation (RAG)
Retrieval-Augmented Generation (RAG) ist ein Ansatz, der Wissensabruf (Retrieval) und Generierung (Generation) kombiniert, um informative und relevante Antworten zu produzieren. Hier sind die Grundzüge dieses Konzepts:
- Datenabruf: RAG beginnt mit einem Retrieval-Schritt, bei dem relevante Informationen aus einer großen Datenbank oder einem Dokumentensatz gesucht werden. Dies geschieht üblicherweise mit Hilfe von Suchalgorithmen oder Retrieval-Modellen, die darauf trainiert sind, die relevantesten Informationen für eine gegebene Anfrage zu finden.
- Informationsintegration: Nachdem relevante Informationen abgerufen wurden, integriert das RAG-System diese in den Generierungsprozess. Das bedeutet, es verwendet die abgerufenen Informationen, um die Antwort oder den generierten Text zu informieren und zu bereichern.
- Kontextuelle Generierung: Anschließend nutzt ein generatives Modell, wie beispielsweise ein Transformer-basiertes Modell, sowohl die ursprüngliche Anfrage als auch die abgerufenen Informationen, um eine zusammenhängende und informative Antwort zu erstellen.
- Feedbackschleife: RAG-Systeme können auch eine Feedbackschleife beinhalten, bei der das generierte Ergebnis dazu verwendet wird, das Retrieval-Modell für zukünftige Anfragen zu verbessern. Dies ermöglicht eine kontinuierliche Verbesserung der Antwortqualität.
Abbildung 5: Schematische Darstellung von Retrieval Augmented Generation (RAG) sowie dessen Kernkomponenten. Hier ist RAG unter Verwendung einer Vektor-Datenbank, LandChain als Orchestrator sowie zweier LLMs dargestellt.
RAG wird beispielsweise bei Frage-Antwort-Systemen eingesetzt, um präzisere und detailliertere Antworten zu liefern, als es durch reine Generierung möglich wäre. Im Gegensatz zu Modellen, die nur auf der Grundlage des ihnen eingegebenen Textes generieren, kann RAG externe Informationsquellen verwenden, um seine Antworten zu unterstützen, was es für Aufgaben wie Faktensuche und komplexe Fragebeantwortung besonders nützlich macht. Ein praktisches Beispiel wäre ein KI-basiertes Kundensupport-System, das RAG nutzt, um aus einer Wissensdatenbank die relevanten Informationen zu holen und Kundenanfragen effizient zu beantworten.
6.4 Chains of Thought (CoT)
CoT ist eine Technik, die darauf abzielt, komplexe Probleme durch die Simulation eines menschenähnlichen Denkprozesses zu lösen. CoT-Techniken sind besonders nützlich für Aufgaben, die ein tieferes Verständnis oder eine schrittweise Problemlösung erfordern, wie z.B. mathematische Beweise, Programmierprobleme oder das Verstehen komplexer Texte.
Die Funktionsweise kann folgendermaßen skizziert werden:
- Problemzerlegung: Das Modell zerlegt ein komplexes Problem in kleinere, handhabbare Schritte oder „Gedankengänge“. Diese Zerlegung erleichtert es dem Modell, den Lösungsweg zu finden.
- Schrittweise Lösung: Für jeden Teilaspekt des Problems generiert das Modell einen Schritt der Lösung oder Erklärung, wobei es auf vorherige Schritte aufbaut, um zum nächsten überzugehen. Dies ähnelt der Art und Weise, wie Menschen komplexe Probleme angehen, indem sie Informationen aufteilen und schrittweise verarbeiten.
- Selbstreflexion: Während des Prozesses kann das Modell seine eigenen Schritte überprüfen und korrigieren, was zu einer Art „inneren Monolog“ führt. Dies hilft dem Modell, Fehler zu erkennen und zu korrigieren, bevor es die endgültige Antwort liefert.
- Generierung der Antwort: Nachdem alle Schritte durchdacht und bearbeitet wurden, kombiniert das Modell sie zu einer zusammenhängenden Lösung oder Erklärung für das Ausgangsproblem.
Die CoT-Technik ermöglicht es generativen KI-Modellen, Probleme auf eine Weise zu lösen, die für Menschen nachvollziehbar ist, da die Zwischenschritte der Problemlösung dargestellt und erläutert werden. Dies verbessert nicht nur die Qualität der Lösungen, die von KI-Modellen generiert werden, sondern erhöht auch das Vertrauen der Benutzer in die Entscheidungen, da sie den Denkprozess des Modells nachvollziehen können.
6.5 Teaching of Thought (ToT)
ToT ist eine Weiterentwicklung des „Chains of Thought“ (CoT) Ansatzes, der Modelle dazu befähigt, ihre Gedankengänge in einer für Menschen verständlichen Form auszudrücken. Dabei sollen nicht nur eigenständig Probleme gelöst, sondern auch den Problemlösungsprozess erklärt oder gelehrt werden können.
Grundlegende Schritte sind die Folgenden:
- Lehrorientiertes Training: Beim ToT-Ansatz wird das KI-Modell speziell darauf trainiert, Problemlösungen in einer Art und Weise zu präsentieren, die didaktisch wertvoll ist. Das heißt, die KI soll nicht nur das Ergebnis liefern, sondern auch den Weg dorthin in einer lehrreichen Form erklären.
- Interaktives Feedback: Im Gegensatz zu traditionellen Ansätzen, bei denen das Modell ausschließlich auf Grundlage von Daten trainiert wird, können beim ToT-Ansatz Menschen interaktiv in den Trainingsprozess eingreifen. Sie geben Feedback zur Qualität der Erklärungen und leiten das Modell an, seine Lehrmethoden zu verbessern.
- Nachvollziehbare Erklärungen: Die von der KI generierten Erklärungen sollen nicht nur korrekt sein, sondern auch so strukturiert, dass ein Lernender den Gedankengängen folgen und das zugrundeliegende Konzept verstehen kann.
- Anpassungsfähigkeit: Ein weiterer wichtiger Aspekt von ToT ist die Fähigkeit der KI, ihre Erklärungs- und Lehrmethoden an den individuellen Wissensstand und die Bedürfnisse des Lernenden anzupassen.
ToT kann in Bildungsumgebungen eine entscheidende Rolle spielen, wo es nicht nur um das Bereitstellen von Informationen geht, sondern auch darum, wie diese Informationen vermittelt werden. KI-Modelle, die ToT-Techniken verwenden, könnten beispielsweise als virtuelle Tutoren dienen, die Schülern und Studenten helfen, komplexe Konzepte zu verstehen und die Fähigkeit zum kritischen Denken zu fördern.
6.6 Guiding of Thought (GoT)
GoT ist eine Methodik in der KI, die darauf abzielt, die Problemlösungsprozesse weiter zu optimieren, indem sie die Interaktion zwischen dem Modell und dem Benutzer verbessert. Die Grundidee ist, dass die KI nicht nur autonom Lösungen generiert und erklärt, sondern auch den Benutzer bei der Lösung von Problemen aktiv unterstützt und anleitet.
Die Funktionsweise kann mit folgenden Komponenten beschrieben werden
- Interaktive Problemformulierung: Bei GoT wird der Benutzer dazu ermutigt, mit der KI zu interagieren und das Problem detailliert zu beschreiben. Das KI-Modell hilft dabei, die Fragestellung zu präzisieren und mögliche Missverständnisse auszuräumen.
- Schritt-für-Schritt-Anleitung: Statt nur das Endergebnis zu liefern, leitet GoT den Benutzer durch den gesamten Problemlösungsprozess. Es bietet eine Schritt-für-Schritt-Anleitung, die es dem Benutzer ermöglicht, die Lösung und ihre Begründung zu verstehen.
- Adaptive Anleitung: GoT-Modelle passen ihre Anleitungen an das Niveau des Benutzers an. Für Anfänger werden die Schritte ausführlicher und detaillierter erklärt, während für erfahrenere Benutzer kompaktere und tiefere Einblicke geboten werden.
- Förderung von Eigenständigkeit: Das Ziel von GoT ist es auch, dem Benutzer zu helfen, unabhängiger in der Problemlösung zu werden. Indem die KI zeigt, wie sie zu einer Lösung kommt, lernt der Benutzer, ähnliche Probleme in Zukunft selbstständig zu bewältigen.
- Feedback-Schleifen: GoT-Modelle nutzen Feedback von Benutzern, um ihre Anleitungen zu verbessern. Sie lernen aus den Interaktionen und passen ihre Kommunikationsstrategien entsprechend an.
GoT kann in verschiedenen Bereichen eingesetzt werden, von der Bildung, wo es das Lernen unterstützt, bis hin zur Beratung, wo es Entscheidungsträger durch komplexe Analysen führt. Ein Beispiel für die praktische Anwendung von GoT könnte ein KI-System sein, das Programmierneulingen hilft, Code zu verstehen und zu schreiben, indem es ihnen erklärt, wie verschiedene Programmierkonzepte funktionieren und zusammenhängen.
6.7 Weiterführende Methoden: Feintuning und Kontextualisierung
Das Feintuning (oder Fine-Tuning) von generativen KI-Modellen ist ein entscheidender Schritt, um die Leistungsfähigkeit der Modelle zu spezifizieren und zu verbessern. Hierbei werden Techniken wie PEFT (Prompt-based Efficient Fine-Tuning) und LoRA (Low-Rank Adaptation) eingesetzt, um die Modelle gezielt an spezifische Aufgabenstellungen oder Daten anzupassen, ohne dabei die Notwendigkeit eines umfangreichen Trainings von Grund auf zu haben.
PEFT nutzt die Effektivität von Prompts, um mit einer relativ kleinen Menge an Beispieldaten die Modelle auf spezifische Anwendungen hin zu optimieren. Anstatt das gesamte Modell neu zu trainieren, werden nur die Teile des Modells angepasst, die für die Reaktion auf bestimmte Prompts zuständig sind. Das ermöglicht es, Ressourcen zu sparen und gleichzeitig die Modelle schnell für neue Aufgaben fit zu machen.
LoRA hingegen ist eine Technik, die durch die Modifikation einer kleinen Anzahl von Parametern in den Gewichtsmatrizen des Modells funktioniert. Es wird eine Low-Rank-Matrix eingeführt, die die Auswirkungen von Änderungen in den Gewichten begrenzt und kontrolliert, was zu einer effizienteren und fokussierten Anpassung des Modells führt.
Die Kontextualisierung spielt vor und nach der Modellausgabe eine wesentliche Rolle, indem sie sicherstellt, dass die Ausgaben der KI relevant und angemessen für den gegebenen Anwendungskontext sind. Vor der Ausgabe hilft die Kontextualisierung dabei, die Prompts so zu gestalten, dass sie die richtige Information zur richtigen Zeit für das Modell bereitstellen. Nach der Ausgabe hilft sie, die Antworten des Modells in einen größeren Kontext einzubetten, sodass sie für den Endnutzer sinnvoll und nutzbar sind. In der Praxis bedeutet dies, dass die Outputs der KI in Bezug auf die Nutzeranfragen oder die spezifischen Anforderungen eines Projekts angepasst und verfeinert werden, was zu einer erhöhten Benutzerzufriedenheit und effektiveren Ergebnissen führt.
7 Zusammenfassung
Die Anpassungsfähigkeit und Reaktionsgeschwindigkeit auf neue Erkenntnisse sind entscheidend für den Erfolg generativer KI-Projekte. Die ReAct-Methode symbolisiert diesen Ansatz, bei dem kontinuierliche Evaluierung und Anpassung von KI-Modellen im Mittelpunkt stehen. Durch Agilität und Resilienz im Entwicklungsprozess können Unternehmen sicherstellen, dass ihre KI-Anwendungen stets aktuelle Anforderungen erfüllen und robust gegenüber Veränderungen sind.
Die in diesem Artikel vorgestellten Methoden und Vorgehensweisen unterstreichen, dass der Lebenszyklus generativer KI-Systeme kein linearer Prozess ist, sondern eine Abfolge von iterativen Schritten, die auf kontinuierlichem Lernen und Anpassung basieren. Vom ersten Entwurf über verschiedene Feintuning-Verfahren bis hin zur fortgeschrittenen Kontextualisierung – jede Phase trägt dazu bei, die Systeme zu verfeinern und ihre Leistungsfähigkeit zu optimieren.
Als Zusammenfassung der wichtigsten Punkte lässt sich festhalten, dass der gezielte Einsatz von Prompt Engineering, Few-Shot-Learning, sowie fortgeschrittene Techniken wie PEFT und LoRA eine zentrale Rolle spielen. Die Reifung der Methoden und deren strategische Anwendung sind für Unternehmen unerlässlich, um wettbewerbsfähig zu bleiben und innovative Lösungen zu entwickeln.
Der Ausblick auf die Zukunft generativer KI ist vielversprechend. Mit fortschreitender Technologie und tiefgreifenderem Verständnis der Methoden werden sich neue Möglichkeiten eröffnen, die weit über das bisherige Maß hinausgehen. Unternehmen, die diese Dynamik erkennen und in ihre Prozesse integrieren, werden in der Lage sein, die KI-Revolution anzuführen und von den damit verbundenen Vorteilen zu profitieren.
Während die Implementierung von generativer KI bzw. die Umsetzung von Use Cases unter Verwendung von generativer KI in Unternehmen zahlreiche Vorteile bietet, kann der Weg dorthin komplex und herausfordernd sein. Es ist entscheidend, einen erfahrenen Partner an der Seite zu haben, der die Reise unterstützt und leitet. Zudem ist es äußerst vorteilhaft, wenn dieser Partner auch in verwandten Bereichen wie Data Engineering und MLOps über umfangreiche Erfahrung verfügt – eine Expertise, die Synvert Saracus genau bietet. Dadurch sind wir in der Lage, ein ganzheitliches und integriertes Spektrum an Lösungen für die Herausforderungen der modernen Unternehmenslandschaft auch im Kontext generativer künstlicher Intelligenz zu liefern. Als eine der führenden unabhängigen Beratungsgruppen für Data Engineering, Data Science, Data Warehouse und Advanced Analytics & AI im europäischen Raum mit mehr als 500 Consultants, hat synvert saracus mit ausgewiesener Expertise in GenAI bereits zahlreiche Use-Cases erfolgreich umgesetzt und Kunden auf ihrem Weg zur digitalen Transformation begleitet. Unsere Erfahrung ermöglicht es, maßgeschneiderte Lösungen anzubieten, die genau auf die Bedürfnisse und Herausforderungen jedes Unternehmens zugeschnitten sind, insbesondere im Bereich der Generativen KI, wo innovative Ansätze und tiefgreifendes technisches Verständnis erforderlich sind.
In über 500 Projekten hat die synvert saracus in 30 Jahren einen großen Erfahrungsschatz aufgebaut. Aktuell hat die synvert saracus mehr als 60 aktive Kunden aus verschiedenen Branchen, die sie bei unterschiedlichen Projekten unterstützt.
Gegründet wurde die saracus consulting GmbH 1991 in Münster (Deutschland). Seit Anfang 1998 sind wir als saracus consulting AG mit einer eigenen Gesellschaft in der Schweiz mit Sitz in Baden-Dättwil vertreten.
Seit dem Jahr 2021 existiert die durch saracus consulting gegründete synvert Gruppe, die führende Unternehmen im Bereich Data & Analytics in Deutschland und der Schweiz zusammenführt. Aktuell besteht die Gruppe aus fünf Unternehmen: Den beiden Gründungsfirmen saracus consulting GmbH und saracus consulting AG und den Unternehmen DataFocus, Data Insights, DataDrivers und ClearPeaks sowie synvert TCM.