Gene­ra­tive KI und große Sprach­mo­delle (LLMs) revo­lu­tio­nie­ren viele Aspekte der Pro­duk­ti­vi­tät von Ent­wick­lern und Nicht-Ent­wick­lern durch die Auto­ma­ti­sie­rung sich wie­der­ho­len­der Auf­ga­ben und die schnelle Gene­rie­rung von Erkennt­nis­sen aus gro­ßen Daten­men­gen. Snow­flake-Benut­zer nut­zen bereits die Vor­teile von LLMs, um wirk­lich coole Apps mit Inte­gra­tio­nen zu web­ge­hos­te­ten LLM-APIs unter Ver­wen­dung exter­ner Funk­tio­nen zu erstel­len und Stream­lit als inter­ak­ti­ves Front­end für LLM-gestützte Apps wie KI-Pla­gi­ats­er­ken­nung, KI-Assis­tent und MathGPT zu verwenden.

Was treibt Daten und KI voran?

Auf die Frage, wel­che Trends Daten und KI vor­an­trei­ben, nannte ich zwei große The­men: Ers­tens wer­den immer mehr Modelle und Algo­rith­men pro­duk­tiv gemacht und auf inter­ak­tive Weise für den End­nut­zer ver­füg­bar gemacht. Das zweite Thema ist die gene­ra­tive KI und die LLMs, die sich stär­ker durch­set­zen wer­den, als ich es mir über­haupt vor­stel­len kann. LLMs haben das Poten­zial, sowohl Ent­wick­lern als auch tech­nisch weni­ger ver­sier­ten Nut­zern dabei zu hel­fen, die Daten der Welt sinn­voll zu nutzen.

Die Anwend­bar­keit von LLMs ent­wi­ckelt sich rasant, und Füh­rungs­kräfte aus Wirt­schaft und Tech­nik erken­nen, dass sie schnell han­deln und die neu­es­ten Modelle nut­zen müs­sen, wenn diese Tech­no­lo­gien lang­fris­tige Aus­wir­kun­gen haben sol­len, wobei diese mit inter­nen Daten ange­passt wer­den soll­ten, ohne die Sicher­heit zu gefähr­den. Der Schutz sen­si­bler oder geschütz­ter Daten wie Quell­code, per­so­nen­be­zo­gene Daten, interne Doku­mente, Wikis, Code­ba­sen und andere sen­si­ble Daten­sätze sowie Ein­ga­be­auf­for­de­run­gen, die zur Kon­tex­tua­li­sie­rung der LLMs ver­wen­det wer­den, ist beson­ders wichtig.

Von Anfang an lag der Schwer­punkt von Snow­flake auf der Sicher­heit und der Ver­wal­tung von Daten, indem wir die Daten mit den Daten ver­knüp­fen, anstatt neue Kopien und zusätz­li­che Silos zu erstel­len. Die­ser Fokus hat unse­ren Ansatz für Snow­park geprägt, und unser Ansatz für LLMs ist nicht anders. Ohne Kom­pro­misse bei der Sicher­heit oder Gover­nance zu machen, ermög­li­chen wir es Kun­den und Part­nern, die Leis­tung von LLMs in die Daten zu brin­gen, um zwei Dinge zu errei­chen: Unter­neh­men kön­nen ihre Daten intel­li­gen­ter nut­zen und die Benut­zer­pro­duk­ti­vi­tät auf sichere und ska­lier­bare Weise verbessern.

Aus­füh­ren von LLMs in Snow­flake, um die Zeit bis zur Erkennt­nis zu verkürzen


Unstruk­tu­rierte Daten in Doku­men­ten, E‑Mails, Web­sei­ten, Bil­dern usw. gehö­ren zu den am schnells­ten wach­sen­den Daten­ty­pen, aber es gibt immer noch keine ein­fa­che Mög­lich­keit, diese Daten zu agg­re­gie­ren und Ana­ly­sen durch­zu­füh­ren, um dar­aus wert­volle Erkennt­nisse zu gewin­nen. Um die Vision der Snow­flake Data Cloud zum Leben zu erwe­cken und alle Arten von ver­wal­te­ten Daten sicher anzu­bie­ten, zu ent­de­cken und zu nut­zen, haben wir die Über­nahme von Applica abge­schlos­sen, dem Gewin­ner der Docu­ment Visual Ques­tion Ans­we­ring Chall­enge mit einem inno­va­ti­ven TILT-Modell (Text-Image-Lay­out-Trans­for­mer) – einem spe­zi­ell ent­wi­ckel­ten, mul­ti­mo­da­len LLM für Docu­ment Intelligence.

Abbil­dung 1: Daten­ty­pen und Ergeb­nisse der Visual Ques­tion Ans­we­ring Chall­enge. Quelle: https://arxiv.org/pdf/2111.05547.pdf

Um unstruk­tu­rierte Daten funk­tio­na­ler zu machen, stel­len wir unse­ren Kun­den wei­ter­hin die Vor­schau-Inte­gra­tion der bahn­bre­chen­den LLM-Tech­no­lo­gie von Applica zur Ver­fü­gung, um den Umfang der manu­el­len Doku­men­ten­be­schrif­tung und ‑kom­men­tie­rung zu mini­mie­ren, die Unter­neh­men zur Fein­ab­stim­mung der Modelle für ihre Doku­mente benötigen.

Applica ist nur ein Bei­spiel für viele füh­rende LLMs, die Kun­den inner­halb von Snow­flake auf sichere und kon­forme Weise aus­füh­ren kön­nen. Blei­ben Sie dran, wenn Sie auf unse­rem Sum­mit in Las Vegas wei­tere Neu­ig­kei­ten in die­sem Bereich erfahren.

Eine Welle von Mög­lich­kei­ten, mehr Benut­zer pro­duk­ti­ver zu machen


Da immer mehr Unter­neh­men ihre Wachs­tums­chan­cen auf digi­tale Stra­te­gien aus­rich­ten und die Zahl der Ent­wick­ler wei­ter steigt, bie­ten LLMs die Mög­lich­keit, ihre Pro­duk­ti­vi­tät zu stei­gern, indem sie den Bedarf an manu­el­ler Codie­rung von sich wie­der­ho­len­den oder Stan­dard­auf­ga­ben ver­rin­gern – eine Mög­lich­keit, von der auch Snow­flake-Ent­wick­ler nicht aus­ge­schlos­sen sind. Um die benö­tig­ten Daten zu fin­den und in kür­zes­ter Zeit Erkennt­nisse zu gewin­nen, ent­wi­ckeln wir in Snow­flake-Arbeits­blät­tern sowohl für SQL als auch für Python die auto­ma­ti­sche Ver­voll­stän­di­gung von Code, Text-zu-Code und Text-zu-Visua­li­sie­run­gen. Und um die Pro­duk­ti­vi­tät der Snow­flake-Kun­den zu maxi­mie­ren, ent­wi­ckeln wir auch LLM-gestützte Such­funk­tio­nen für ganz Snow­flake, von der Doku­men­ta­tion bis zum Snow­flake Marketplace.

Die Nut­zung von LLMs durch die über­wie­gende Mehr­heit der nicht pro­gram­mie­ren­den Mit­ar­bei­ter in einem Unter­neh­men kann die Effi­zi­enz des Unter­neh­mens erheb­lich stei­gern. Ein häu­fi­ges Hin­der­nis für die Ein­füh­rung von KI für nicht pro­gram­mie­rende Geschäfts­teams war die Kom­ple­xi­tät von KI. Die Ver­wen­dung von LLMs war nicht anders, bis chatGPT der Welt zeigte, wie durch eine inter­ak­tive Anwen­dung jeder die Macht die­ser Modelle nut­zen kann. Diese Kluft zwi­schen LLMs und den Men­schen, die sie nut­zen kön­nen, ein­schließ­lich nicht-tech­ni­scher Kol­le­gen, ist eine, die Stream­lit über­brü­cken soll. Mit nur 25 Code­zei­len kann jeder eine Anwen­dung erstel­len, die eine Schnitt­stelle für eine bes­ser geführte Ein­ga­be­auf­for­de­rung und Inter­ak­tion mit LLMs bie­tet, wie z. B. den GPT3-Datensatzgenerator.

Mit der wei­te­ren Inte­gra­tion von Stream­lit zur nati­ven Aus­füh­rung in Snow­flake wird das Erstel­len und Bereit­stel­len von Anwen­dun­gen, die auf LLMs basie­ren, noch siche­rer, ska­lier­ba­rer und angenehmer.

Die Macht der LLMs zu den Daten bringen


Snow­flake bringt inte­grierte Funk­tio­nen zur Gewin­nung von Erkennt­nis­sen aus unstruk­tu­rier­ten Daten, LLM-gestützte Benut­zer­er­fah­run­gen und die Infrastruktur für füh­rende LLMs und ihre Front-End-Anwen­dun­gen direkt in die Hände der Kun­den. Um all dies zu errei­chen, kon­zen­trie­ren wir uns bei der Ent­wick­lung wei­ter­hin auf die Sicher­heit und Gover­nance von Daten, indem wir die Arbeit – in die­sem Fall die LLMs – zu den Daten brin­gen. Besu­chen Sie uns in Las Vegas auf unse­rem Sum­mit und erfah­ren Sie mehr.

Zukunfts­ge­rich­tete Aussagen

Die­ser Blog ent­hält aus­drück­li­che und impli­zite zukunfts­ge­rich­tete Aus­sa­gen, ein­schließ­lich Aus­sa­gen zu Snow­flake-Pro­duk­ten, ‑Ser­vices und ‑Tech­no­lo­gie­an­ge­bo­ten, die sich in der Ent­wick­lung befin­den. Diese zukunfts­ge­rich­te­ten Aus­sa­gen unter­lie­gen einer Reihe von Risi­ken, Unge­wiss­hei­ten und Annah­men, ein­schließ­lich derer, die unter der Über­schrift Risi­ko­fak­to­ren“ und an ande­rer Stelle in den Jah­res­be­rich­ten auf Form­blatt 10‑K und den Quar­tals­be­rich­ten auf Form­blatt 10‑Q beschrie­ben sind, die Snow­flake bei der Secu­ri­ties and Exch­ange Com­mis­sion ein­reicht. In Anbe­tracht die­ser Risi­ken, Unge­wiss­hei­ten und Annah­men kön­nen die tat­säch­li­chen Ergeb­nisse erheb­lich und nach­tei­lig von den in den zukunfts­ge­rich­te­ten Aus­sa­gen erwar­te­ten oder impli­zier­ten Ergeb­nis­sen abwei­chen. Aus die­sem Grund soll­ten Sie sich nicht auf zukunfts­ge­rich­tete Aus­sa­gen als Vor­her­sa­gen zukünf­ti­ger Ereig­nisse verlassen.

Jeg­li­che Infor­ma­tio­nen über zukünf­tige Pro­dukte oder Road­maps (zusam­men­fas­send als Road­map“ bezeich­net) in die­sem Blog die­nen dazu, die all­ge­meine Pro­dukt­aus­rich­tung zu skiz­zie­ren; sie stel­len keine Ver­pflich­tung, kein Ver­spre­chen und keine recht­li­che Ver­pflich­tung für Snow­flake dar, zukünf­tige Pro­dukte, Funk­tio­nen oder Funk­tio­na­li­tä­ten zu lie­fern, und sind nicht als Bestand­teil eines Ver­trags gedacht und kön­nen auch nicht als sol­che betrach­tet wer­den. Der tat­säch­li­che Zeit­punkt der Bereit­stel­lung eines Pro­dukts, einer Funk­tion oder eines Funk­ti­ons­um­fangs kann sich von den Anga­ben in der Road­map unter­schei­den. Die Infor­ma­tio­nen der Road­map soll­ten nicht als Grund­lage für eine Kauf­ent­schei­dung die­nen. Beach­ten Sie außer­dem, dass Snow­flake keine Ent­schei­dung dar­über getrof­fen hat, ob für zukünf­tige Pro­dukte, Merk­male und/oder Funk­tio­nen, die letzt­end­lich zur Ver­fü­gung gestellt wer­den, sepa­rate Gebüh­ren erho­ben wer­den. Snow­flake kann nach eige­nem Ermes­sen beschlie­ßen, sepa­rate Gebüh­ren für die Bereit­stel­lung zukünf­ti­ger Pro­dukte, Merk­male und/oder Funk­tio­nen zu erhe­ben, die letzt­end­lich zur Ver­fü­gung gestellt werden.

Erfah­ren Sie hier mehr über Lösun­gen im Bereich Snow­flake oder besu­chen Sie eines unse­rer kos­ten­lo­sen Web­i­nare.

Quelle: snowflake.com