Ein­lei­tung 

Im vor­an­ge­gan­ge­nen Blog haben wir die immense Bedeu­tung von Gene­ra­ti­ver Künst­li­cher Intel­li­genz (GenAI) für Unter­neh­men und die Not­wen­dig­keit struk­tu­rel­ler Anpas­sun­gen erläu­tert. Dabei haben wir die Ana­lo­gie des schnells­ten Autos ver­wen­det: GenAI ist ein mäch­ti­ges Werk­zeug, des­sen vol­les Poten­zial nur durch rich­tige Anwen­dung ent­fal­tet wer­den kann. In die­sem Bei­trag ver­tie­fen wir die­sen Gedan­ken, indem wir kon­krete Anwen­dungs­bei­spiele von Large Lan­guage Models (LLMs) auf­zei­gen. Diese Modelle sind weit mehr als nur Kom­mu­ni­ka­ti­ons­hel­fer; sie bie­ten Unter­neh­men viel­sei­tige Ein­satz­mög­lich­kei­ten, die weit über den klas­si­schen Chat­bot hin­aus­ge­hen. Erfah­ren Sie, wie LLMs in der Pra­xis ein­ge­setzt wer­den kön­nen, um Arbeits­ab­läufe zu opti­mie­ren und neue Geschäfts­fel­der zu erschließen. 

Viel­sei­tige Mög­lich­kei­ten: Die Prak­ti­schen Anwen­dun­gen von LLMs jen­seits der Chatbots 

Mehr als nur Kommunikationshelfer 

Wie bei unse­rem Auto­bei­spiel ist auch die Tech­no­lo­gie von Large Lan­guage Models (LLMs) nicht auf einen ein­zi­gen Ver­wen­dungs­zweck beschränkt. Wäh­rend ein Auto mehr ist als nur ein Mit­tel zur Fort­be­we­gung, geht die Funk­tio­na­li­tät von LLMs wie Chat GPT weit über ein­fa­che Text­ge­ne­rie­rung hin­aus. Sie sind mul­ti­funk­tio­nale Instru­mente, die ein brei­tes Spek­trum an Anwen­dun­gen abde­cken kön­nen. In die­sem Abschnitt beleuch­ten wir sowohl offen­sicht­li­che als auch weni­ger bekannte Ein­satz­mög­lich­kei­ten von LLMs. 

GenAI: Ein Öko­sys­tem von Möglichkeiten 

GenAI stellt eine Kate­go­rie von KI-Sys­te­men dar, die nicht nur Text, son­dern auch Bil­der, Audio und Video syn­the­tisch gene­rie­ren und ana­ly­sie­ren kön­nen. Diese Tech­no­lo­gie bie­tet die Chance, signi­fi­kante wirt­schaft­li­che und soziale Ver­än­de­run­gen vor­an­zu­trei­ben. Dabei stellt die ethi­sche Imple­men­tie­rung der KI eine der Schlüs­sel­fra­gen die­ses Jahr­zehnts dar. 

Die fol­gende Gra­fik gewährt einen Ein­blick in die viel­fäl­ti­gen Anwen­dungs­mög­lich­kei­ten von unter­neh­mens­spe­zi­fi­schen LLM Use Cases. Diese Use Cases basie­ren auf „Pre-Trained“-Modellen, die auf die spe­zi­fi­schen Inhalte eines Unter­neh­mens trai­niert wer­den. Das Ergeb­nis ist im Prin­zip ein vir­tu­el­ler Assis­tent, der sich mit den inter­nen Ter­mi­no­lo­gien und Begrif­fen des Unter­neh­mens aus­kennt. Beson­ders Unter­neh­men mit einer hoch­wer­ti­gen Doku­men­ta­ti­ons­qua­li­tät pro­fi­tie­ren an die­ser Stelle, da dies dazu bei­trägt, fal­sche oder irre­füh­rende Ant­wor­ten zu minimieren. 

Ein Bild, das Text, Screenshot, Design enthält.

Automatisch generierte Beschreibung

Es wird deut­lich, dass sowohl die IT-Abtei­lung als auch Fach­be­rei­che und Sach­be­ar­bei­ter in allen Ebe­nen des Unter­neh­mens von die­sen Tech­no­lo­gien pro­fi­tie­ren kön­nen. Es ist jedoch wich­tig zu beto­nen, dass die genann­ten Anwen­dungs­fälle nur einen Teil des umfang­rei­chen Spek­trums dar­stel­len, das diese Tech­no­lo­gie bietet. 

Bei der Aus­wahl des rich­ti­gen Anwen­dungs­falls ist eine sorg­fäl­tige Bewer­tung der vor­han­de­nen Daten­qua­li­tät oder eine mög­li­che Opti­mie­rung uner­läss­lich. Ange­sichts der Bedeu­tung des Daten­schut­zes und des Umgangs mit sen­si­blen Infor­ma­tio­nen emp­fiehlt sich die Inte­gra­tion einer Lösung in die fir­men­ei­gene IT-Infrastruktur, um die Daten im Unter­neh­men sicher zu schützen. 

Use Case Umset­zung am Bei­spiel: Auto­ma­ti­sche Finanzbericht-Erstattung 

Für die Erstel­lung von auto­ma­ti­schen Doku­men­ta­tio­nen wie zum Bei­spiel von Finanz­be­rich­ten, ist es essen­zi­ell diese in ihre ein­zel­nen Bestand­teile zu unter­tei­len. Eine Iden­ti­fi­ka­tion hier­für bie­tet z.B. eine Seg­men­tie­rung. Ggf. ist es aber wich­tig, das Doku­ment noch wei­ter zu Unter­tei­len. Warum ist dies wich­tig? LLMs funk­tio­nie­ren umso bes­ser, je genauer ihre Auf­ga­ben­stel­lung ist. Um eben jene zu opti­mie­ren, benö­tigt es nebst dem tech­ni­schen Know­how über die Umset­zung zunächst ein­mal fun­dier­tes Ver­ständ­nis über den Auf­bau und Inhalt des Doku­ments. An die­ser Stelle bie­tet sich der Ein­satz von Busi­ness Ana­lys­ten an, um die Kom­mu­ni­ka­tion zu opti­mie­ren. Auch das Modell selbst kann hier die logi­sche Auf­tei­lung des Doku­ments unter­stüt­zen- z.B. über einen soge­nann­ten Prompt wie “ Bitte hel­fen Sie mir dabei, das Doku­ment ‚XY‘ in seine inhalt­li­chen Bestand­teile zu unter­tei­len und diese als Liste dar­zu­stel­len. Ich benö­tige eine klare, struk­tu­rierte und detail­lierte Ant­wort, um eine prä­zise, umfas­sende und qua­li­ta­tiv hoch­wer­tige Ant­wort zu erhalten.“. 

Das Ziel besteht darin, eine Sequenz von auf­ein­an­der auf­bau­en­den Prompts zu erstel­len. Diese kön­nen mit Tech­no­lo­gien wie Lang­Chain kom­bi­niert und mit­hilfe von Tools wie Python in eine bestehende Infrastruktur inte­griert wer­den. Das Ent­wer­fen von Prompts ist eine eigene Wis­sen­schaft, wes­halb das Prompt-Engi­nee­ring in der Zukunft immer wich­ti­ger wer­den wird. 

Um die Ergeb­nisse nach­hal­tig zu ver­bes­sern, kön­nen diese Ansätze ver­folgt werden: 

1. Spe­zi­fi­sches Trai­ning des Modells: Das Modell kann auf spe­zi­fi­sche Anwen­dungs­fälle, wie bei­spiels­weise frü­here Finanz­be­richte, trai­niert wer­den. Dies ermög­licht die Inte­gra­tion von spe­zi­fi­schen Begrif­fen und Metho­den, die für die Erstel­lung sol­cher Berichte rele­vant sind. 

2. Kon­tex­tua­li­sie­rung: Dem Modell sollte klar gemacht wer­den, was seine Auf­gabe ist. Durch das Set­zen von Rah­men­be­din­gun­gen, wie „Du bist ein Finanz­ana­lyst der Firma XY“, wird die Wahr­schein­lich­keit erhöht, dass rele­vante Inhalte für das Unter­neh­men gene­riert werden. 

Vor­teil der Seg­men­tie­rung: Es ist essen­zi­ell, dem Modell Feed­back zu sei­nen Ergeb­nis­sen zu geben. Dadurch kann es bestimmte Pfade im neu­ro­na­len Netz ver­mei­den oder, wie man es bei Men­schen aus­drü­cken würde, aus sei­nen Feh­lern ler­nen. Die­ser Pro­zess wird als Trai­ning des Modells bezeichnet. 

Schauen wir uns jetzt ein­mal im Detail an, wie eine Ver­gleich­bare Pro­zess Archi­tek­tur aus­se­hen könnte: 

Ein Bild, das Text, Screenshot, Diagramm, Schrift enthält.

Automatisch generierte Beschreibung

In die­sem Bei­spiel wird der Geschäfts­be­richt in zwölf the­ma­ti­sche Abschnitte geglie­dert. Nach einer initia­len Vor­be­rei­tungs­phase, in der rele­vante Daten gesam­melt und indi­vi­du­elle Ein­stel­lun­gen vor­ge­nom­men wer­den, star­tet die Gene­ra­ti­ons­phase. In die­ser Phase wird für jeden der zwölf Abschnitte ein spe­zi­fi­scher Prompt aus­ge­führt. Das Ergeb­nis ist der jewei­lige Abschnitt des Berichts, for­ma­tiert gemäß den vor­ge­ge­be­nen Richt­li­nien. Es ist wich­tig zu beto­nen, dass dies ein ver­ein­fach­tes Sze­na­rio ist. In der Pra­xis könn­ten spe­zia­li­sierte GenAI-Modelle ein­ge­setzt und mit­tels Lang­Chain ver­knüpft wer­den, die bei­spiels­weise aus­schließ­lich für die Erzeu­gung von Tabel­len und Gra­fi­ken zustän­dig sind. 

Prompt 1 könnte dabei als eine Art Kette von Bau­stei­nen betrach­tet wer­den, in der meh­rere Prompts in Kom­bi­na­tion mit ver­schie­de­nen KI-Model­len ange­wen­det wer­den könn­ten. Dabei kann der Pro­zess so gestal­tet wer­den, dass er den Inhalt der vor­he­ri­gen Abschnitte berück­sich­tigt. Dies gewähr­leis­tet eine kon­sis­tente Dar­stel­lung im gesam­ten Doku­ment und ver­mei­det red­un­dante Informationen. 

Die­ser Ansatz ist eine logi­sche Fort­füh­rung der im vor­he­ri­gen Abschnitt beschrie­be­nen Metho­dik zur auto­ma­ti­schen Finanz­be­richt­erstat­tung. Die Seg­men­tie­rung des Doku­ments in the­ma­ti­sche Abschnitte ermög­licht es den Large Lan­guage Models (LLMs), prä­zi­ser und kon­text­be­zo­ge­ner zu arbei­ten. Die Ein­bin­dung von Busi­ness-Ana­lys­ten kann die Qua­li­tät der gene­rier­ten Inhalte wei­ter ver­bes­sern, indem sie die Kom­mu­ni­ka­tion zwi­schen den tech­ni­schen und geschäft­li­chen Aspek­ten optimieren. 

Zusätz­lich zur Fein­ab­stim­mung des Modells auf spe­zi­fi­sche Anwen­dungs­fälle und der Bereit­stel­lung von Kon­text­in­for­ma­tio­nen kann der Pro­zess durch kon­ti­nu­ier­li­ches Feed­back opti­miert wer­den. Die­ses Feed­back ermög­licht es dem Modell, aus sei­nen Feh­lern zu „ler­nen“ und seine Leis­tung im Laufe der Zeit zu ver­bes­sern, ein Pro­zess, der im Fach­jar­gon als Trai­ning des Modells bekannt ist. Die­ser „Lern­ef­fekt“ ver­deut­licht die Nach­ah­mung von den Pro­zes­sen in einem mensch­li­chen Gehirn. 

Ins­ge­samt zeigt die­ses Bei­spiel, wie eine durch­dachte Archi­tek­tur und sorg­fäl­tige Pla­nung den Ein­satz von GenAI in der auto­ma­ti­schen Finanz­be­richt­erstat­tung opti­mie­ren kön­nen. Die Effekte rei­chen von ver­kürz­ter Zeit zur Erstel­lung des Berichts bis hin zur Ent­las­tung von Schlüs­sel-Res­sour­cen in stres­si­gen Abschluss­pro­zess und öff­net auch die Tür für eine höhere Finanz-Abschluss-Fre­quen­zen in Unternehmen. 

Ent­de­cken Sie das Poten­zial: Wie Sie neue Anwen­dungs­fälle für LLMs erschließen 

Wie kön­nen Sie, ob als Pri­vat­per­son oder Unter­neh­men, neue Anwen­dungs­fälle für LLMs ent­de­cken? Der erste Schritt besteht darin, ein grund­le­gen­des Ver­ständ­nis dafür zu ent­wi­ckeln, wie diese Tech­no­lo­gie ein­ge­setzt wer­den kann. Dies för­dert die Inspi­ra­tion. Es sind nicht nur LLMs, die dar­auf spe­zia­li­siert sind, Mus­ter zu erken­nen. Auch wir Men­schen kön­nen durch die Ideen ande­rer neue Kon­zepte ent­wi­ckeln, die auf ähn­li­chen Mus­tern basie­ren. Ein offe­ner Dia­log ist daher emp­feh­lens­wert, sei es mit Freun­den, Bekann­ten oder Experten auf die­sem Gebiet. Seien Sie offen für Neues und ver­trauen Sie Ihren eige­nen Ideen. Selbst wenn Sie viel­leicht nicht das not­wen­dige Fach­wis­sen haben, um eine Idee umzu­set­zen, gibt es sicher­lich jeman­den, der es hat. 

In die­sem Kon­text ist es wich­tig zu beto­nen, dass die viel­sei­ti­gen Anwen­dun­gen von LLMs weit über die Funk­tio­nen eines ein­fa­chen Chat­bots hin­aus­ge­hen. Sie sind Teil eines umfas­sen­den Öko­sys­tems, das der­zeit von ChatGPT reprä­sen­tiert wird und das Poten­zial hat, signi­fi­kante Ver­än­de­run­gen in ver­schie­de­nen Berei­chen vor­an­zu­trei­ben. Die oben erwähnte Gra­fik stellt nur einen klei­nen Teil der Mög­lich­kei­ten dar, die LLMs bie­ten kön­nen. Daher lohnt es sich, stän­dig auf dem Lau­fen­den zu blei­ben und die Ent­wick­lun­gen in die­sem auf­re­gen­den Tech­no­lo­gie­be­reich zu verfolgen. 

Für die erfolg­rei­che Imple­men­tie­rung die­ser viel­fäl­ti­gen Anwen­dungs­fälle ist eine leis­tungs­fä­hige und ska­lier­bare Data-Ware­house-Infrastruktur uner­läss­lich. Als eine der füh­ren­den Unter­neh­men im deutsch­spra­chi­gen Raum bie­tet syn­vert die Mög­lich­keit eine moderne und kos­ten­ef­fi­zi­ente Grund­lage zu schaffen.