Einleitung
Im vorangegangenen Blog haben wir die immense Bedeutung von Generativer Künstlicher Intelligenz (GenAI) für Unternehmen und die Notwendigkeit struktureller Anpassungen erläutert. Dabei haben wir die Analogie des schnellsten Autos verwendet: GenAI ist ein mächtiges Werkzeug, dessen volles Potenzial nur durch richtige Anwendung entfaltet werden kann. In diesem Beitrag vertiefen wir diesen Gedanken, indem wir konkrete Anwendungsbeispiele von Large Language Models (LLMs) aufzeigen. Diese Modelle sind weit mehr als nur Kommunikationshelfer; sie bieten Unternehmen vielseitige Einsatzmöglichkeiten, die weit über den klassischen Chatbot hinausgehen. Erfahren Sie, wie LLMs in der Praxis eingesetzt werden können, um Arbeitsabläufe zu optimieren und neue Geschäftsfelder zu erschließen.
Vielseitige Möglichkeiten: Die Praktischen Anwendungen von LLMs jenseits der Chatbots
Mehr als nur Kommunikationshelfer
Wie bei unserem Autobeispiel ist auch die Technologie von Large Language Models (LLMs) nicht auf einen einzigen Verwendungszweck beschränkt. Während ein Auto mehr ist als nur ein Mittel zur Fortbewegung, geht die Funktionalität von LLMs wie Chat GPT weit über einfache Textgenerierung hinaus. Sie sind multifunktionale Instrumente, die ein breites Spektrum an Anwendungen abdecken können. In diesem Abschnitt beleuchten wir sowohl offensichtliche als auch weniger bekannte Einsatzmöglichkeiten von LLMs.
GenAI: Ein Ökosystem von Möglichkeiten
GenAI stellt eine Kategorie von KI-Systemen dar, die nicht nur Text, sondern auch Bilder, Audio und Video synthetisch generieren und analysieren können. Diese Technologie bietet die Chance, signifikante wirtschaftliche und soziale Veränderungen voranzutreiben. Dabei stellt die ethische Implementierung der KI eine der Schlüsselfragen dieses Jahrzehnts dar.
Die folgende Grafik gewährt einen Einblick in die vielfältigen Anwendungsmöglichkeiten von unternehmensspezifischen LLM Use Cases. Diese Use Cases basieren auf „Pre-Trained“-Modellen, die auf die spezifischen Inhalte eines Unternehmens trainiert werden. Das Ergebnis ist im Prinzip ein virtueller Assistent, der sich mit den internen Terminologien und Begriffen des Unternehmens auskennt. Besonders Unternehmen mit einer hochwertigen Dokumentationsqualität profitieren an dieser Stelle, da dies dazu beiträgt, falsche oder irreführende Antworten zu minimieren.
Es wird deutlich, dass sowohl die IT-Abteilung als auch Fachbereiche und Sachbearbeiter in allen Ebenen des Unternehmens von diesen Technologien profitieren können. Es ist jedoch wichtig zu betonen, dass die genannten Anwendungsfälle nur einen Teil des umfangreichen Spektrums darstellen, das diese Technologie bietet.
Bei der Auswahl des richtigen Anwendungsfalls ist eine sorgfältige Bewertung der vorhandenen Datenqualität oder eine mögliche Optimierung unerlässlich. Angesichts der Bedeutung des Datenschutzes und des Umgangs mit sensiblen Informationen empfiehlt sich die Integration einer Lösung in die firmeneigene IT-Infrastruktur, um die Daten im Unternehmen sicher zu schützen.
Use Case Umsetzung am Beispiel: Automatische Finanzbericht-Erstattung
Für die Erstellung von automatischen Dokumentationen wie zum Beispiel von Finanzberichten, ist es essenziell diese in ihre einzelnen Bestandteile zu unterteilen. Eine Identifikation hierfür bietet z.B. eine Segmentierung. Ggf. ist es aber wichtig, das Dokument noch weiter zu Unterteilen. Warum ist dies wichtig? LLMs funktionieren umso besser, je genauer ihre Aufgabenstellung ist. Um eben jene zu optimieren, benötigt es nebst dem technischen Knowhow über die Umsetzung zunächst einmal fundiertes Verständnis über den Aufbau und Inhalt des Dokuments. An dieser Stelle bietet sich der Einsatz von Business Analysten an, um die Kommunikation zu optimieren. Auch das Modell selbst kann hier die logische Aufteilung des Dokuments unterstützen- z.B. über einen sogenannten Prompt wie “ Bitte helfen Sie mir dabei, das Dokument ‚XY‘ in seine inhaltlichen Bestandteile zu unterteilen und diese als Liste darzustellen. Ich benötige eine klare, strukturierte und detaillierte Antwort, um eine präzise, umfassende und qualitativ hochwertige Antwort zu erhalten.“.
Das Ziel besteht darin, eine Sequenz von aufeinander aufbauenden Prompts zu erstellen. Diese können mit Technologien wie LangChain kombiniert und mithilfe von Tools wie Python in eine bestehende Infrastruktur integriert werden. Das Entwerfen von Prompts ist eine eigene Wissenschaft, weshalb das Prompt-Engineering in der Zukunft immer wichtiger werden wird.
Um die Ergebnisse nachhaltig zu verbessern, können diese Ansätze verfolgt werden:
1. Spezifisches Training des Modells: Das Modell kann auf spezifische Anwendungsfälle, wie beispielsweise frühere Finanzberichte, trainiert werden. Dies ermöglicht die Integration von spezifischen Begriffen und Methoden, die für die Erstellung solcher Berichte relevant sind.
2. Kontextualisierung: Dem Modell sollte klar gemacht werden, was seine Aufgabe ist. Durch das Setzen von Rahmenbedingungen, wie „Du bist ein Finanzanalyst der Firma XY“, wird die Wahrscheinlichkeit erhöht, dass relevante Inhalte für das Unternehmen generiert werden.
Vorteil der Segmentierung: Es ist essenziell, dem Modell Feedback zu seinen Ergebnissen zu geben. Dadurch kann es bestimmte Pfade im neuronalen Netz vermeiden oder, wie man es bei Menschen ausdrücken würde, aus seinen Fehlern lernen. Dieser Prozess wird als Training des Modells bezeichnet.
Schauen wir uns jetzt einmal im Detail an, wie eine Vergleichbare Prozess Architektur aussehen könnte:
In diesem Beispiel wird der Geschäftsbericht in zwölf thematische Abschnitte gegliedert. Nach einer initialen Vorbereitungsphase, in der relevante Daten gesammelt und individuelle Einstellungen vorgenommen werden, startet die Generationsphase. In dieser Phase wird für jeden der zwölf Abschnitte ein spezifischer Prompt ausgeführt. Das Ergebnis ist der jeweilige Abschnitt des Berichts, formatiert gemäß den vorgegebenen Richtlinien. Es ist wichtig zu betonen, dass dies ein vereinfachtes Szenario ist. In der Praxis könnten spezialisierte GenAI-Modelle eingesetzt und mittels LangChain verknüpft werden, die beispielsweise ausschließlich für die Erzeugung von Tabellen und Grafiken zuständig sind.
Prompt 1 könnte dabei als eine Art Kette von Bausteinen betrachtet werden, in der mehrere Prompts in Kombination mit verschiedenen KI-Modellen angewendet werden könnten. Dabei kann der Prozess so gestaltet werden, dass er den Inhalt der vorherigen Abschnitte berücksichtigt. Dies gewährleistet eine konsistente Darstellung im gesamten Dokument und vermeidet redundante Informationen.
Dieser Ansatz ist eine logische Fortführung der im vorherigen Abschnitt beschriebenen Methodik zur automatischen Finanzberichterstattung. Die Segmentierung des Dokuments in thematische Abschnitte ermöglicht es den Large Language Models (LLMs), präziser und kontextbezogener zu arbeiten. Die Einbindung von Business-Analysten kann die Qualität der generierten Inhalte weiter verbessern, indem sie die Kommunikation zwischen den technischen und geschäftlichen Aspekten optimieren.
Zusätzlich zur Feinabstimmung des Modells auf spezifische Anwendungsfälle und der Bereitstellung von Kontextinformationen kann der Prozess durch kontinuierliches Feedback optimiert werden. Dieses Feedback ermöglicht es dem Modell, aus seinen Fehlern zu „lernen“ und seine Leistung im Laufe der Zeit zu verbessern, ein Prozess, der im Fachjargon als Training des Modells bekannt ist. Dieser „Lerneffekt“ verdeutlicht die Nachahmung von den Prozessen in einem menschlichen Gehirn.
Insgesamt zeigt dieses Beispiel, wie eine durchdachte Architektur und sorgfältige Planung den Einsatz von GenAI in der automatischen Finanzberichterstattung optimieren können. Die Effekte reichen von verkürzter Zeit zur Erstellung des Berichts bis hin zur Entlastung von Schlüssel-Ressourcen in stressigen Abschlussprozess und öffnet auch die Tür für eine höhere Finanz-Abschluss-Frequenzen in Unternehmen.
Entdecken Sie das Potenzial: Wie Sie neue Anwendungsfälle für LLMs erschließen
Wie können Sie, ob als Privatperson oder Unternehmen, neue Anwendungsfälle für LLMs entdecken? Der erste Schritt besteht darin, ein grundlegendes Verständnis dafür zu entwickeln, wie diese Technologie eingesetzt werden kann. Dies fördert die Inspiration. Es sind nicht nur LLMs, die darauf spezialisiert sind, Muster zu erkennen. Auch wir Menschen können durch die Ideen anderer neue Konzepte entwickeln, die auf ähnlichen Mustern basieren. Ein offener Dialog ist daher empfehlenswert, sei es mit Freunden, Bekannten oder Experten auf diesem Gebiet. Seien Sie offen für Neues und vertrauen Sie Ihren eigenen Ideen. Selbst wenn Sie vielleicht nicht das notwendige Fachwissen haben, um eine Idee umzusetzen, gibt es sicherlich jemanden, der es hat.
In diesem Kontext ist es wichtig zu betonen, dass die vielseitigen Anwendungen von LLMs weit über die Funktionen eines einfachen Chatbots hinausgehen. Sie sind Teil eines umfassenden Ökosystems, das derzeit von ChatGPT repräsentiert wird und das Potenzial hat, signifikante Veränderungen in verschiedenen Bereichen voranzutreiben. Die oben erwähnte Grafik stellt nur einen kleinen Teil der Möglichkeiten dar, die LLMs bieten können. Daher lohnt es sich, ständig auf dem Laufenden zu bleiben und die Entwicklungen in diesem aufregenden Technologiebereich zu verfolgen.
Für die erfolgreiche Implementierung dieser vielfältigen Anwendungsfälle ist eine leistungsfähige und skalierbare Data-Warehouse-Infrastruktur unerlässlich. Als eine der führenden Unternehmen im deutschsprachigen Raum bietet synvert die Möglichkeit eine moderne und kosteneffiziente Grundlage zu schaffen.