Kli­cken Sie hier, um zum 1. Teil des Blogs zu gelangen

5 Schritt­weise Ein­füh­rung in kom­ple­xere Methoden 

In der Umset­zung von Use-Cases mit gene­ra­ti­ver KI beginnt der Rei­fungs­pro­zess typi­scher­weise mit ein­fa­chen Anwen­dun­gen, wie der Auto­ma­ti­sie­rung von Text­ge­ne­rie­rung durch Prompt Engi­nee­ring. Diese initia­len Schritte die­nen als Grund­lage, um ein grund­le­gen­des Ver­ständ­nis für die Poten­ziale und Limi­ta­tio­nen der KI zu ent­wi­ckeln. Mit zuneh­men­dem Ein­satz und Ver­ständ­nis begin­nen Unter­neh­men, kom­ple­xere Metho­den zu integrieren. 

Bei­spiels­weise könnte ein Unter­neh­men, das ursprüng­lich gene­ra­tive KI nur zur Con­tent-Erstel­lung genutzt hat, begin­nen, tie­fere und spe­zi­fi­schere Anwen­dun­gen zu erkun­den, wie die Per­so­na­li­sie­rung von Kun­de­n­er­fah­run­gen durch KI-gene­rierte Emp­feh­lun­gen oder die Ent­wick­lung von KI-gestütz­ten Design-Tools, die Nut­zer­ein­ga­ben inter­pre­tie­ren und in visu­elle Designs umsetzen. 

Im Laufe der Zeit wer­den diese Metho­den immer kom­ple­xer. Es ent­ste­hen Sys­teme, die nicht nur ein­fa­che Auf­ga­ben auto­ma­ti­sie­ren, son­dern auch in der Lage sind, aus ihren Inter­ak­tio­nen zu ler­nen und sich an ver­än­dernde Umstände anzu­pas­sen. Die Imple­men­tie­rung fort­schritt­li­cher Tech­ni­ken, wie das Trai­nie­ren von KI-Model­len auf spe­zi­fi­sche Domä­nen oder das Nut­zen von Trans­fer Lear­ning, ermög­licht es den KI-Sys­te­men, ihre Leis­tungs­fä­hig­keit kon­ti­nu­ier­lich zu verbessern. 

Die­ser Pro­zess der Ein­füh­rung kom­ple­xe­rer Metho­den ist kumu­la­tiv und ite­ra­tiv. Jeder Schritt baut auf dem vor­he­ri­gen auf, wobei jede neue Methode eine Erwei­te­rung der Mög­lich­kei­ten mit sich bringt und gleich­zei­tig das Gesamt­sys­tem robus­ter macht. Durch die­ses schritt­weise Vor­ge­hen wird die Sta­bi­li­tät der Sys­teme sicher­ge­stellt und das Risiko mini­miert, das mit grö­ße­ren Ver­än­de­run­gen ver­bun­den sein könnte. 

Abbil­dung 3: Pyra­mide als Ver­an­schau­li­chung von Foun­da­tio­nal Models sowie wei­ter spe­zia­li­sier­ter bzw. fein­ab­ge­stimm­ter Modelle. Links wer­den mög­li­che Daten­quel­len und rechts bei­spiel­haft einige Modelle dar­ge­stellt. Dabei ist beson­ders wich­tig, dass jedes fein­ab­ge­stimmte Modell (wei­ter oben in der Pyra­mide) auf einer guter Grund­lage (alle Stu­fen unter­halb der betrach­te­ten in der Pyra­mide) basie­ren sollte. 

6 Metho­den im Detail 

Wir wer­den nun einige Metho­den genauer betrach­ten, um einen umfas­sen­den Über­blick zu erhal­ten. Die Aus­wahl und Kom­bi­na­tion der Metho­den hängt dabei maß­geb­lich vom jewei­li­gen Anwen­dungs­fall ab. 

In fol­gen­der Abbil­dung sind viele der fol­gen­den Metho­den sowie einige wei­tere Kon­zepte dargestellt. 

Die vor­ge­stell­ten Metho­den las­sen sich in ver­schie­dene Pha­sen des Lebens­zy­klus unter­tei­len, etwa 

  • Sel­ect & Prompt: 
    In die­ser Phase wer­den geeig­nete Daten­quel­len und Inhalte aus­ge­wählt und Ein­ga­be­auf­for­de­run­gen (Prompts) für das KI-Sys­tem gestal­tet. Ziel ist es, durch die Aus­wahl rele­van­ter Daten und die For­mu­lie­rung prä­zi­ser Prompts effek­tive und ziel­ge­rich­tete Ergeb­nisse von der KI zu erhalten. 
  • Adapt and Serve: 
    In die­ser Phase geht es darum, KI-Modelle an spe­zi­fi­sche Anwen­dungs­fälle anzu­pas­sen und sie für den Ein­satz bereit­zu­stel­len. Dies kann das Fein­tu­ning von Model­len auf spe­zi­fi­sche Domä­nen oder die Inte­gra­tion von KI in nut­zer­freund­li­che Anwen­dun­gen beinhalten. 
  • LLMOps: 
    Dies steht für „Large Lan­guage Model Ope­ra­ti­ons“ und bezieht sich auf das Manage­ment und die War­tung gro­ßer Sprach­mo­delle. Es umfasst Prak­ti­ken zur Ska­lie­rung, Über­wa­chung und Aktua­li­sie­rung von gro­ßen KI-Model­len, um ihre Leis­tung und Effi­zi­enz zu gewähr­leis­ten. Im Wesent­li­chen beschreibt LLMOps die And­we­nung bzw. Spe­zia­li­sie­rung von MLOPs auf Large Lan­guage Models. 
  • Prep, Train, Tune: 
    Diese Phase beinhal­tet die Vor­be­rei­tung der Daten, das Trai­ning der KI-Modelle und deren Fein­ab­stim­mung, um die Genau­ig­keit und Rele­vanz der KI-Aus­ga­ben zu maxi­mie­ren. Die­ser Pro­zess ist ent­schei­dend, um hoch­wer­tige KI-Sys­teme zu entwickeln. 
  • Respon­si­ble AI Layer: 
    Diese Kate­go­rie bezieht sich auf den Ein­satz ver­ant­wor­tungs­vol­ler KI-Prak­ti­ken, die ethi­sche, faire und trans­pa­rente KI-Sys­teme gewährleisten 
  • Secur­tiy and Pri­vacy: 
    Diese Stufe betrifft die Sicher­stel­lung der Sicher­heit und des Daten­schut­zes inner­halb des KI-Sys­tems. Dazu gehö­ren Maß­nah­men zur Ver­hin­de­rung unbe­fug­ten Zugriffs, zum Schutz sen­si­bler Daten und zur Ein­hal­tung von Datenschutzvorschriften. 

Abbil­dung 4: Ver­an­schau­li­chung und Zusam­men­hang wesent­li­cher Kom­po­nen­ten des Lebens­zy­klus von Gene­ra­ti­ver KI. Viele der auf­ge­zeig­ten Metho­den fin­den sich in die­ser Abbil­dung wie­der. Da das Feld der Gene­ra­ti­ven KI sich schnell ent­wi­ckelt, wird diese Dar­stel­lung schnell nicht mehr aktu­ell sein, aktu­el­ler Stand Ende 2023. 

6.1 Prompt Tuning oder Prompt Engi­nee­ring 

Prompt Engi­nee­ring ist ein Pro­zess, der dar­auf abzielt, die Ein­ga­be­auf­for­de­run­gen (Prompts) für ein Modell zu opti­mie­ren, um die gewünsch­ten Aus­ga­ben zu erzie­len. Beim Prompt Engi­nee­ring wer­den spe­zi­fi­sche Instruk­tio­nen sorg­fäl­tig kon­stru­iert, um die Leis­tungs­fä­hig­keit von GenAI-Model­len zu maximieren. 

In der Pra­xis bedeu­tet Prompt Engi­nee­ring, die Prompts so zu gestal­ten, dass sie die KI zu Ant­wor­ten lei­ten, die nütz­lich, prä­zise und dem Kon­text ange­mes­sen sind. Dies erfor­dert Expe­ri­men­tie­ren und Tes­ten, um die best­mög­li­chen Prompts zu identifizieren. 

Im kom­mer­zi­el­len Umfeld wird Prompt Engi­nee­ring häu­fig ein­ge­setzt, um Con­tent-Erstel­lung, Kun­den­ser­vice, Pro­gram­mie­rung und andere Anwen­dun­gen zu ver­bes­sern. Zum Bei­spiel könnte ein Unter­neh­men ein KI-Modell ver­wen­den, um Pro­dukt­be­schrei­bun­gen zu gene­rie­ren. Ein gut ent­wor­fe­ner Prompt könnte die KI dazu brin­gen, krea­ti­vere, detail­lier­tere und mar­ken­spe­zi­fi­schere Beschrei­bun­gen zu pro­du­zie­ren, als es mit gene­ri­schen Prompts der Fall wäre. 

Prompt Engi­nee­ring ist auch wich­tig für die Imple­men­tie­rung von Ethik und Fair­ness in KI-Sys­te­men. Durch sorg­fäl­tige Gestal­tung der Prompts kann sicher­ge­stellt wer­den, dass die Ant­wor­ten der KI-Modelle keine uner­wünsch­ten Vor­ur­teile oder dis­kri­mi­nie­rende Spra­che enthalten. 

Wei­ter wer­den kom­ple­xere Metho­den oft durch Prompt Engi­nee­ring unter­stützt, indem sie als eine Art Ein­stiegs­punkt oder Rah­men für die wei­ter­füh­rende Ver­ar­bei­tung durch die KI dienen. 

6.2 Few-shot Lear­ning and Rapid Adapt­a­tion (FLARE)

FLARE (Few-shot Lear­ning and Rapid Adapt­a­tion) ist eine Tech­nik im Bereich des maschi­nel­len Ler­nens, die dar­auf abzielt, KI-Modelle mit einer mini­ma­len Menge von Trai­nings­da­ten effek­tiv zu trai­nie­ren und anzu­pas­sen. Hier­bei wird ein Modell ver­wen­det, das bereits auf einer umfang­rei­chen Daten­menge vor­trai­niert wurde und somit ein brei­tes Ver­ständ­nis ver­schie­de­ner Mus­ter und Kon­zepte erlangt hat. Das kon­krete Vor­ge­hen kann fol­gen­der­ma­ßen aussehen: 

  1. Vor­trai­ning: Zuerst wird ein KI-Modell auf einer gro­ßen, viel­fäl­ti­gen Daten­menge vor­trai­niert. Dies ermög­licht es dem Modell, all­ge­meine Mus­ter und Struk­tu­ren zu ler­nen, die über viele Anwen­dungs­fälle hin­weg nütz­lich sind. Hier kön­nen aber auch bereits vor­trai­nierte foun­da­tio­nal Models ver­wen­det werden. 
  1. Few-shot Trai­ning: Anstatt das Modell von Grund auf mit einer neuen, umfang­rei­chen Daten­menge zu trai­nie­ren, wird es nun mit einer klei­nen Anzahl von Bei­spie­len (den „shots“) für eine spe­zi­fi­sche Auf­gabe nach­trai­niert. Diese Bei­spiele reprä­sen­tie­ren die neue Auf­gabe oder den neuen Kon­text, den das Modell bewäl­ti­gen soll. 
  1. Rapid Adapt­a­tion: Durch Tech­ni­ken wie Meta-Lear­ning oder Trans­fer Lear­ning passt sich das Modell schnell an die neue Auf­gabe an. Es nutzt sein bereits erwor­be­nes Wis­sen und ver­fei­nert seine Fähig­kei­ten, sodass es auch mit weni­gen Bei­spie­len effek­tiv arbei­ten kann. 
  1. Anwen­dung: Das so ange­passte Modell kann dann für die spe­zi­fi­sche Auf­gabe ein­ge­setzt wer­den, bei­spiels­weise um Mus­ter in neuen Daten zu erken­nen oder Vor­her­sa­gen zu tref­fen, auch wenn nur begrenzte Infor­ma­tio­nen ver­füg­bar sind. 

FLARE-Tech­ni­ken sind beson­ders in Sze­na­rien hilf­reich, wo Daten­sätze klein sind oder schnell wech­selnde Anfor­de­run­gen bestehen. In der gene­ra­ti­ven KI wer­den sol­che Tech­ni­ken oft genutzt, um Modelle an spe­zi­fi­sche Anfor­de­run­gen von Nut­zern oder spe­zi­fi­sche Anwen­dungs­fälle anzu­pas­sen, ohne jedes Mal ein neues Modell von Grund auf neu trai­nie­ren zu müs­sen. Oft wer­den, wie bereits ange­spro­chen, vor­trai­nierte Modelle ähn­lich GPT3 oder GPT4 ver­wen­det und mit FLARE nachtrainiert. 

6.3 Retrie­val-Aug­men­ted Gene­ra­tion (RAG) 

Retrie­val-Aug­men­ted Gene­ra­tion (RAG) ist ein Ansatz, der Wis­sens­a­bruf (Retrie­val) und Gene­rie­rung (Gene­ra­tion) kom­bi­niert, um infor­ma­tive und rele­vante Ant­wor­ten zu pro­du­zie­ren. Hier sind die Grund­züge die­ses Konzepts: 

  • Daten­ab­ruf: RAG beginnt mit einem Retrie­val-Schritt, bei dem rele­vante Infor­ma­tio­nen aus einer gro­ßen Daten­bank oder einem Doku­men­ten­satz gesucht wer­den. Dies geschieht übli­cher­weise mit Hilfe von Such­al­go­rith­men oder Retrie­val-Model­len, die dar­auf trai­niert sind, die rele­van­tes­ten Infor­ma­tio­nen für eine gege­bene Anfrage zu finden. 
  • Infor­ma­ti­ons­in­te­gra­tion: Nach­dem rele­vante Infor­ma­tio­nen abge­ru­fen wur­den, inte­griert das RAG-Sys­tem diese in den Gene­rie­rungs­pro­zess. Das bedeu­tet, es ver­wen­det die abge­ru­fe­nen Infor­ma­tio­nen, um die Ant­wort oder den gene­rier­ten Text zu infor­mie­ren und zu bereichern. 
  • Kon­tex­tu­elle Gene­rie­rung: Anschlie­ßend nutzt ein gene­ra­ti­ves Modell, wie bei­spiels­weise ein Trans­for­mer-basier­tes Modell, sowohl die ursprüng­li­che Anfrage als auch die abge­ru­fe­nen Infor­ma­tio­nen, um eine zusam­men­hän­gende und infor­ma­tive Ant­wort zu erstellen. 
  • Feed­back­schleife: RAG-Sys­teme kön­nen auch eine Feed­back­schleife beinhal­ten, bei der das gene­rierte Ergeb­nis dazu ver­wen­det wird, das Retrie­val-Modell für zukünf­tige Anfra­gen zu ver­bes­sern. Dies ermög­licht eine kon­ti­nu­ier­li­che Ver­bes­se­rung der Antwortqualität. 

Abbil­dung 5: Sche­ma­ti­sche Dar­stel­lung von Retrie­val Aug­men­ted Gene­ra­tion (RAG) sowie des­sen Kern­kom­po­nen­ten. Hier ist RAG unter Ver­wen­dung einer Vek­tor-Daten­bank, Land­Chain als Orchestra­tor sowie zweier LLMs dar­ge­stellt. 

RAG wird bei­spiels­weise bei Frage-Ant­wort-Sys­te­men ein­ge­setzt, um prä­zi­sere und detail­lier­tere Ant­wor­ten zu lie­fern, als es durch reine Gene­rie­rung mög­lich wäre. Im Gegen­satz zu Model­len, die nur auf der Grund­lage des ihnen ein­ge­ge­be­nen Tex­tes gene­rie­ren, kann RAG externe Infor­ma­ti­ons­quel­len ver­wen­den, um seine Ant­wor­ten zu unter­stüt­zen, was es für Auf­ga­ben wie Fak­ten­su­che und kom­plexe Fra­ge­be­ant­wor­tung beson­ders nütz­lich macht. Ein prak­ti­sches Bei­spiel wäre ein KI-basier­tes Kun­den­sup­port-Sys­tem, das RAG nutzt, um aus einer Wis­sens­da­ten­bank die rele­van­ten Infor­ma­tio­nen zu holen und Kun­den­an­fra­gen effi­zi­ent zu beantworten. 

6.4 Chains of Thought (CoT) 

CoT ist eine Tech­nik, die dar­auf abzielt, kom­plexe Pro­bleme durch die Simu­la­tion eines men­schen­ähn­li­chen Denk­pro­zes­ses zu lösen. CoT-Tech­ni­ken sind beson­ders nütz­lich für Auf­ga­ben, die ein tie­fe­res Ver­ständ­nis oder eine schritt­weise Pro­blem­lö­sung erfor­dern, wie z.B. mathe­ma­ti­sche Beweise, Pro­gram­mier­pro­bleme oder das Ver­ste­hen kom­ple­xer Texte. 

Die Funk­ti­ons­weise kann fol­gen­der­ma­ßen skiz­ziert werden: 

  1. Pro­blem­zer­le­gung: Das Modell zer­legt ein kom­ple­xes Pro­blem in klei­nere, hand­hab­bare Schritte oder „Gedan­ken­gänge“. Diese Zer­le­gung erleich­tert es dem Modell, den Lösungs­weg zu finden. 
  1. Schritt­weise Lösung: Für jeden Teil­aspekt des Pro­blems gene­riert das Modell einen Schritt der Lösung oder Erklä­rung, wobei es auf vor­he­rige Schritte auf­baut, um zum nächs­ten über­zu­ge­hen. Dies ähnelt der Art und Weise, wie Men­schen kom­plexe Pro­bleme ange­hen, indem sie Infor­ma­tio­nen auf­tei­len und schritt­weise verarbeiten. 
  1. Selbst­re­fle­xion: Wäh­rend des Pro­zes­ses kann das Modell seine eige­nen Schritte über­prü­fen und kor­ri­gie­ren, was zu einer Art „inne­ren Mono­log“ führt. Dies hilft dem Modell, Feh­ler zu erken­nen und zu kor­ri­gie­ren, bevor es die end­gül­tige Ant­wort liefert. 
  1. Gene­rie­rung der Ant­wort: Nach­dem alle Schritte durch­dacht und bear­bei­tet wur­den, kom­bi­niert das Modell sie zu einer zusam­men­hän­gen­den Lösung oder Erklä­rung für das Ausgangsproblem. 

Die CoT-Tech­nik ermög­licht es gene­ra­ti­ven KI-Model­len, Pro­bleme auf eine Weise zu lösen, die für Men­schen nach­voll­zieh­bar ist, da die Zwi­schen­schritte der Pro­blem­lö­sung dar­ge­stellt und erläu­tert wer­den. Dies ver­bes­sert nicht nur die Qua­li­tät der Lösun­gen, die von KI-Model­len gene­riert wer­den, son­dern erhöht auch das Ver­trauen der Benut­zer in die Ent­schei­dun­gen, da sie den Denk­pro­zess des Modells nach­voll­zie­hen können. 

6.5 Tea­ching of Thought (ToT) 

ToT ist eine Wei­ter­ent­wick­lung des „Chains of Thought“ (CoT) Ansat­zes, der Modelle dazu befä­higt, ihre Gedan­ken­gänge in einer für Men­schen ver­ständ­li­chen Form aus­zu­drü­cken. Dabei sol­len nicht nur eigen­stän­dig Pro­bleme gelöst, son­dern auch den Pro­blem­lö­sungs­pro­zess erklärt oder gelehrt wer­den können. 

Grund­le­gende Schritte sind die Folgenden: 

  1. Lehr­ori­en­tier­tes Trai­ning: Beim ToT-Ansatz wird das KI-Modell spe­zi­ell dar­auf trai­niert, Pro­blem­lö­sun­gen in einer Art und Weise zu prä­sen­tie­ren, die didak­tisch wert­voll ist. Das heißt, die KI soll nicht nur das Ergeb­nis lie­fern, son­dern auch den Weg dort­hin in einer lehr­rei­chen Form erklären. 
  1. Inter­ak­ti­ves Feed­back: Im Gegen­satz zu tra­di­tio­nel­len Ansät­zen, bei denen das Modell aus­schließ­lich auf Grund­lage von Daten trai­niert wird, kön­nen beim ToT-Ansatz Men­schen inter­ak­tiv in den Trai­nings­pro­zess ein­grei­fen. Sie geben Feed­back zur Qua­li­tät der Erklä­run­gen und lei­ten das Modell an, seine Lehr­me­tho­den zu verbessern. 
  1. Nach­voll­zieh­bare Erklä­run­gen: Die von der KI gene­rier­ten Erklä­run­gen sol­len nicht nur kor­rekt sein, son­dern auch so struk­tu­riert, dass ein Ler­nen­der den Gedan­ken­gän­gen fol­gen und das zugrun­de­lie­gende Kon­zept ver­ste­hen kann. 
  1. Anpas­sungs­fä­hig­keit: Ein wei­te­rer wich­ti­ger Aspekt von ToT ist die Fähig­keit der KI, ihre Erklä­rungs- und Lehr­me­tho­den an den indi­vi­du­el­len Wis­sens­stand und die Bedürf­nisse des Ler­nen­den anzupassen. 

ToT kann in Bil­dungs­um­ge­bun­gen eine ent­schei­dende Rolle spie­len, wo es nicht nur um das Bereit­stel­len von Infor­ma­tio­nen geht, son­dern auch darum, wie diese Infor­ma­tio­nen ver­mit­telt wer­den. KI-Modelle, die ToT-Tech­ni­ken ver­wen­den, könn­ten bei­spiels­weise als vir­tu­elle Tuto­ren die­nen, die Schü­lern und Stu­den­ten hel­fen, kom­plexe Kon­zepte zu ver­ste­hen und die Fähig­keit zum kri­ti­schen Den­ken zu fördern. 

6.6 Gui­ding of Thought (GoT) 

GoT ist eine Metho­dik in der KI, die dar­auf abzielt, die Pro­blem­lö­sungs­pro­zesse wei­ter zu opti­mie­ren, indem sie die Inter­ak­tion zwi­schen dem Modell und dem Benut­zer ver­bes­sert. Die Grund­idee ist, dass die KI nicht nur auto­nom Lösun­gen gene­riert und erklärt, son­dern auch den Benut­zer bei der Lösung von Pro­ble­men aktiv unter­stützt und anleitet. 

Die Funk­ti­ons­weise kann mit fol­gen­den Kom­po­nen­ten beschrie­ben werden 

  • Inter­ak­tive Pro­blem­for­mu­lie­rung: Bei GoT wird der Benut­zer dazu ermu­tigt, mit der KI zu inter­agie­ren und das Pro­blem detail­liert zu beschrei­ben. Das KI-Modell hilft dabei, die Fra­ge­stel­lung zu prä­zi­sie­ren und mög­li­che Miss­ver­ständ­nisse auszuräumen. 
  • Schritt-für-Schritt-Anlei­tung: Statt nur das End­ergeb­nis zu lie­fern, lei­tet GoT den Benut­zer durch den gesam­ten Pro­blem­lö­sungs­pro­zess. Es bie­tet eine Schritt-für-Schritt-Anlei­tung, die es dem Benut­zer ermög­licht, die Lösung und ihre Begrün­dung zu verstehen. 
  • Adap­tive Anlei­tung: GoT-Modelle pas­sen ihre Anlei­tun­gen an das Niveau des Benut­zers an. Für Anfän­ger wer­den die Schritte aus­führ­li­cher und detail­lier­ter erklärt, wäh­rend für erfah­re­nere Benut­zer kom­pak­tere und tie­fere Ein­bli­cke gebo­ten werden. 
  • För­de­rung von Eigen­stän­dig­keit: Das Ziel von GoT ist es auch, dem Benut­zer zu hel­fen, unab­hän­gi­ger in der Pro­blem­lö­sung zu wer­den. Indem die KI zeigt, wie sie zu einer Lösung kommt, lernt der Benut­zer, ähn­li­che Pro­bleme in Zukunft selbst­stän­dig zu bewältigen. 
  • Feed­back-Schlei­fen: GoT-Modelle nut­zen Feed­back von Benut­zern, um ihre Anlei­tun­gen zu ver­bes­sern. Sie ler­nen aus den Inter­ak­tio­nen und pas­sen ihre Kom­mu­ni­ka­ti­ons­stra­te­gien ent­spre­chend an. 

GoT kann in ver­schie­de­nen Berei­chen ein­ge­setzt wer­den, von der Bil­dung, wo es das Ler­nen unter­stützt, bis hin zur Bera­tung, wo es Ent­schei­dungs­trä­ger durch kom­plexe Ana­ly­sen führt. Ein Bei­spiel für die prak­ti­sche Anwen­dung von GoT könnte ein KI-Sys­tem sein, das Pro­gram­mier­neu­lin­gen hilft, Code zu ver­ste­hen und zu schrei­ben, indem es ihnen erklärt, wie ver­schie­dene Pro­gram­mier­kon­zepte funk­tio­nie­ren und zusammenhängen. 

6.7 Wei­ter­füh­rende Metho­den: Fein­tu­ning und Kon­tex­tua­li­sie­rung 

Das Fein­tu­ning (oder Fine-Tuning) von gene­ra­ti­ven KI-Model­len ist ein ent­schei­den­der Schritt, um die Leis­tungs­fä­hig­keit der Modelle zu spe­zi­fi­zie­ren und zu ver­bes­sern. Hier­bei wer­den Tech­ni­ken wie PEFT (Prompt-based Effi­ci­ent Fine-Tuning) und LoRA (Low-Rank Adapt­a­tion) ein­ge­setzt, um die Modelle gezielt an spe­zi­fi­sche Auf­ga­ben­stel­lun­gen oder Daten anzu­pas­sen, ohne dabei die Not­wen­dig­keit eines umfang­rei­chen Trai­nings von Grund auf zu haben. 

PEFT nutzt die Effek­ti­vi­tät von Prompts, um mit einer rela­tiv klei­nen Menge an Bei­spiel­da­ten die Modelle auf spe­zi­fi­sche Anwen­dun­gen hin zu opti­mie­ren. Anstatt das gesamte Modell neu zu trai­nie­ren, wer­den nur die Teile des Modells ange­passt, die für die Reak­tion auf bestimmte Prompts zustän­dig sind. Das ermög­licht es, Res­sour­cen zu spa­ren und gleich­zei­tig die Modelle schnell für neue Auf­ga­ben fit zu machen. 

LoRA hin­ge­gen ist eine Tech­nik, die durch die Modi­fi­ka­tion einer klei­nen Anzahl von Para­me­tern in den Gewichts­ma­tri­zen des Modells funk­tio­niert. Es wird eine Low-Rank-Matrix ein­ge­führt, die die Aus­wir­kun­gen von Ände­run­gen in den Gewich­ten begrenzt und kon­trol­liert, was zu einer effi­zi­en­te­ren und fokus­sier­ten Anpas­sung des Modells führt. 

Die Kon­tex­tua­li­sie­rung spielt vor und nach der Modell­aus­gabe eine wesent­li­che Rolle, indem sie sicher­stellt, dass die Aus­ga­ben der KI rele­vant und ange­mes­sen für den gege­be­nen Anwen­dungs­kon­text sind. Vor der Aus­gabe hilft die Kon­tex­tua­li­sie­rung dabei, die Prompts so zu gestal­ten, dass sie die rich­tige Infor­ma­tion zur rich­ti­gen Zeit für das Modell bereit­stel­len. Nach der Aus­gabe hilft sie, die Ant­wor­ten des Modells in einen grö­ße­ren Kon­text ein­zu­bet­ten, sodass sie für den End­nut­zer sinn­voll und nutz­bar sind. In der Pra­xis bedeu­tet dies, dass die Out­puts der KI in Bezug auf die Nut­zer­an­fra­gen oder die spe­zi­fi­schen Anfor­de­run­gen eines Pro­jekts ange­passt und ver­fei­nert wer­den, was zu einer erhöh­ten Benut­zer­zu­frie­den­heit und effek­ti­ve­ren Ergeb­nis­sen führt. 

7 Zusam­men­fas­sung 

Die Anpas­sungs­fä­hig­keit und Reak­ti­ons­ge­schwin­dig­keit auf neue Erkennt­nisse sind ent­schei­dend für den Erfolg gene­ra­ti­ver KI-Pro­jekte. Die ReAct-Methode sym­bo­li­siert die­sen Ansatz, bei dem kon­ti­nu­ier­li­che Eva­lu­ie­rung und Anpas­sung von KI-Model­len im Mit­tel­punkt ste­hen. Durch Agi­li­tät und Resi­li­enz im Ent­wick­lungs­pro­zess kön­nen Unter­neh­men sicher­stel­len, dass ihre KI-Anwen­dun­gen stets aktu­elle Anfor­de­run­gen erfül­len und robust gegen­über Ver­än­de­run­gen sind. 

Die in die­sem Arti­kel vor­ge­stell­ten Metho­den und Vor­ge­hens­wei­sen unter­strei­chen, dass der Lebens­zy­klus gene­ra­ti­ver KI-Sys­teme kein linea­rer Pro­zess ist, son­dern eine Abfolge von ite­ra­ti­ven Schrit­ten, die auf kon­ti­nu­ier­li­chem Ler­nen und Anpas­sung basie­ren. Vom ers­ten Ent­wurf über ver­schie­dene Fein­tu­ning-Ver­fah­ren bis hin zur fort­ge­schrit­te­nen Kon­tex­tua­li­sie­rung – jede Phase trägt dazu bei, die Sys­teme zu ver­fei­nern und ihre Leis­tungs­fä­hig­keit zu optimieren. 

Als Zusam­men­fas­sung der wich­tigs­ten Punkte lässt sich fest­hal­ten, dass der gezielte Ein­satz von Prompt Engi­nee­ring, Few-Shot-Lear­ning, sowie fort­ge­schrit­tene Tech­ni­ken wie PEFT und LoRA eine zen­trale Rolle spie­len. Die Rei­fung der Metho­den und deren stra­te­gi­sche Anwen­dung sind für Unter­neh­men uner­läss­lich, um wett­be­werbs­fä­hig zu blei­ben und inno­va­tive Lösun­gen zu entwickeln. 

Der Aus­blick auf die Zukunft gene­ra­ti­ver KI ist viel­ver­spre­chend. Mit fort­schrei­ten­der Tech­no­lo­gie und tief­grei­fen­de­rem Ver­ständ­nis der Metho­den wer­den sich neue Mög­lich­kei­ten eröff­nen, die weit über das bis­he­rige Maß hin­aus­ge­hen. Unter­neh­men, die diese Dyna­mik erken­nen und in ihre Pro­zesse inte­grie­ren, wer­den in der Lage sein, die KI-Revo­lu­tion anzu­füh­ren und von den damit ver­bun­de­nen Vor­tei­len zu profitieren. 

Wäh­rend die Imple­men­tie­rung von gene­ra­ti­ver KI bzw. die Umset­zung von Use Cases unter Ver­wen­dung von gene­ra­ti­ver KI in Unter­neh­men zahl­rei­che Vor­teile bie­tet, kann der Weg dort­hin kom­plex und her­aus­for­dernd sein. Es ist ent­schei­dend, einen erfah­re­nen Part­ner an der Seite zu haben, der die Reise unter­stützt und lei­tet. Zudem ist es äußerst vor­teil­haft, wenn die­ser Part­ner auch in ver­wand­ten Berei­chen wie Data Engi­nee­ring und MLOps über umfang­rei­che Erfah­rung ver­fügt – eine Exper­tise, die Syn­vert Saracus genau bie­tet. Dadurch sind wir in der Lage, ein ganz­heit­li­ches und inte­grier­tes Spek­trum an Lösun­gen für die Her­aus­for­de­run­gen der moder­nen Unter­neh­mens­land­schaft auch im Kon­text gene­ra­ti­ver künst­li­cher Intel­li­genz zu lie­fern. Als eine der füh­ren­den unab­hän­gi­gen Bera­tungs­grup­pen für Data Engi­nee­ring, Data Sci­ence, Data Ware­house und Advan­ced Ana­ly­tics & AI im euro­päi­schen Raum mit mehr als 500 Con­sul­tants, hat syn­vert saracus mit aus­ge­wie­se­ner Exper­tise in GenAI bereits zahl­rei­che Use-Cases erfolg­reich umge­setzt und Kun­den auf ihrem Weg zur digi­ta­len Trans­for­ma­tion beglei­tet. Unsere Erfah­rung ermög­licht es, maß­ge­schnei­derte Lösun­gen anzu­bie­ten, die genau auf die Bedürf­nisse und Her­aus­for­de­run­gen jedes Unter­neh­mens zuge­schnit­ten sind, ins­be­son­dere im Bereich der Gene­ra­ti­ven KI, wo inno­va­tive Ansätze und tief­grei­fen­des tech­ni­sches Ver­ständ­nis erfor­der­lich sind. 

In über 500 Pro­jek­ten hat die syn­vert saracus in 30 Jah­ren einen gro­ßen Erfah­rungs­schatz auf­ge­baut. Aktu­ell hat die syn­vert saracus mehr als 60 aktive Kun­den aus ver­schie­de­nen Bran­chen, die sie bei unter­schied­li­chen Pro­jek­ten unterstützt. 

Gegrün­det wurde die saracus con­sul­ting GmbH 1991 in Müns­ter (Deutsch­land). Seit Anfang 1998 sind wir als saracus con­sul­ting AG mit einer eige­nen Gesell­schaft in der Schweiz mit Sitz in Baden-Dätt­wil vertreten. 

Seit dem Jahr 2021 exis­tiert die durch saracus con­sul­ting gegrün­dete syn­vert Gruppe, die füh­rende Unter­neh­men im Bereich Data & Ana­ly­tics in Deutsch­land und der Schweiz zusam­men­führt. Aktu­ell besteht die Gruppe aus fünf Unter­neh­men: Den bei­den Grün­dungs­fir­men saracus con­sul­ting GmbH und saracus con­sul­ting AG und den Unter­neh­men DataF­o­cus, Data Insights, Dat­aDri­vers und Cle­ar­Peaks sowie syn­vert TCM.