Das maschi­nelle Ler­nen (ML) hat in den letz­ten Jah­ren eine rasante Ent­wick­lung und Ver­brei­tung erfah­ren, die durch eine Reihe von Fak­to­ren ange­trie­ben wird. 

Es gibt kei­nen Man­gel an Mei­nun­gen dar­über, warum künst­li­che Intel­li­genz (KI) und ML im Wachs­tum sind. Ein aktu­el­ler Bericht von McK­in­sey nennt die Indus­tria­li­sie­rung von ML und ange­wand­ter KI als einen der Top-Trends für das Jahr. In einer Sit­zung auf der AWS re:Invent-Konferenz erläu­terte Bra­tin Saha, VP und GM für KI und maschi­nel­les Ler­nen bei Ama­zon, die sechs Haupt­trends, die der Cloud-Riese sieht und die dazu bei­tra­gen, Inno­va­tion und Akzep­tanz im Jahr 2022 und dar­über hin­aus zu fördern. 

AWS gibt an, über 100.000 Kun­den für seine KI/ML-Ser­vices zu haben. Diese Ser­vices sind auf drei Ebe­nen ver­teilt: ML-Infra­struk­tur­ser­vices, die es Unter­neh­men ermög­li­chen, ihre eige­nen Modelle zu erstel­len; Sage­Ma­ker, das Tools für die Erstel­lung von Anwen­dun­gen bereit­stellt, und zweck­ge­bun­dene Ser­vices für bestimmte Anwen­dungs­fälle, wie z. B. Transkription. 

„Das maschi­nelle Ler­nen hat sich von einer Nischen­ak­ti­vi­tät zu einem inte­gra­len Bestand­teil der Geschäfts­ab­läufe von Unter­neh­men ent­wi­ckelt“, sagte Saha wäh­rend der Sitzung. 

Trend 1: Die Modelle wer­den immer aus­ge­feil­ter 

Saha sagte, dass in den letz­ten Jah­ren die Raf­fi­nesse von ML-Model­len expo­nen­ti­ell zuge­nom­men habe. Die Ver­wen­dung des Begriffs „expo­nen­ti­ell“ ist auch keine Übertreibung. 

Eine Mög­lich­keit, die Kom­ple­xi­tät von Model­len des maschi­nel­len Ler­nens zu mes­sen, besteht darin, die Anzahl der Para­me­ter in ihnen zu zäh­len. Saha erklärte, dass Para­me­ter als Wert­va­ria­blen betrach­tet wer­den kön­nen, die in ML-Modelle ein­ge­bet­tet sind. Im Jahr 2019, so Saha, hat­ten die moderns­ten ML-Modelle etwa 300 Mil­lio­nen Para­me­ter. Im Jahr 2022 haben die bes­ten Modelle bereits mehr als 500 Mil­li­ar­den Parameter. 

„Mit ande­ren Wor­ten: In nur drei Jah­ren hat sich die Kom­ple­xi­tät der Modelle für maschi­nel­les Ler­nen um das 1.600-fache erhöht“, so Saha. 

Diese mas­si­ven Modelle wer­den heute gemein­hin als Basis­mo­delle bezeich­net. Mit dem Ansatz der Basis­mo­delle kann ein ML-Modell ein­mal mit einem gro­ßen Daten­satz trai­niert und dann für eine Viel­zahl ver­schie­de­ner Auf­ga­ben wie­der­ver­wen­det und ange­passt wer­den. Auf diese Weise kön­nen Unter­neh­men von der höhe­ren Kom­ple­xi­tät pro­fi­tie­ren, wobei der Ansatz ein­fa­cher zu über­neh­men ist. 

„[Foun­da­tion-Modelle] redu­zie­ren die Kos­ten und den Auf­wand für das maschi­nelle Ler­nen um eine Grö­ßen­ord­nung“, so Saha. 

Trend 2: Daten­wachs­tum 

Zum Trai­nie­ren von ML-Model­len wer­den immer grö­ßere Daten­men­gen und unter­schied­li­che Daten­ty­pen ver­wen­det. Dies ist der zweite wich­tige Trend, den Saha iden­ti­fi­ziert hat. 

Unter­neh­men erstel­len jetzt Modelle, die auf struk­tu­rier­ten Daten­quel­len wie Text sowie auf unstruk­tu­rier­ten Daten­ty­pen wie Audio und Video trai­niert wur­den. Die Mög­lich­keit, ver­schie­dene Daten­ty­pen in ML-Modelle zu inte­grie­ren, hat zur Ent­wick­lung meh­re­rer Ser­vices bei AWS geführt, die beim Trai­ning von Model­len helfen. 

Ein sol­ches Tool, das Saha her­vor­hob, ist Sage­Ma­ker Data Wrang­ler, das Benut­zern hilft, unstruk­tu­rierte Daten mit einem Ansatz zu ver­ar­bei­ten, der sie für ML-Trai­ning geeig­net macht. AWS hat diese Woche auf der re:Invent-Konferenz auch neue Unter­stüt­zung für Geo­da­ten in Sage­Ma­ker hinzugefügt. 

Trend 3: Indus­tria­li­sie­rung des maschi­nel­len Ler­nens 

Bei AWS ist auch ein Trend zur zuneh­men­den ML-Indus­tria­li­sie­rung zu beob­ach­ten. Das bedeu­tet eine stär­kere Stan­dar­di­sie­rung von ML-Tools und ‑Infrastruktur, die es Unter­neh­men ermög­licht, Anwen­dun­gen ein­fa­cher zu erstellen. 

Saha sagte, dass die ML-Indus­tria­li­sie­rung wich­tig ist, weil sie Unter­neh­men hilft, die Ent­wick­lung zu auto­ma­ti­sie­ren und zuver­läs­si­ger zu machen. Ein indus­tri­el­ler, gemein­sa­mer Ansatz ist ent­schei­dend für die Ska­lie­rung, wenn Unter­neh­men mehr Modelle ent­wi­ckeln und einsetzen. 

„Sogar inner­halb von Ama­zon ver­wen­den wir Sage­Ma­ker für die Indus­tria­li­sie­rung und die Ent­wick­lung von maschi­nel­lem Ler­nen“, so Saha. „Zum Bei­spiel wer­den die kom­ple­xes­ten Alexa-Sprach­mo­delle jetzt auf Sage­Ma­ker trainiert.“ 

Trend 4: ML-gestützte Anwen­dun­gen für spe­zi­fi­sche Anwen­dungs­fälle 

ML wächst auch auf­grund von zweck­ge­bun­de­nen Anwen­dun­gen für bestimmte Anwendungsfälle. 

Saha sagte, dass AWS-Kun­den den Anbie­ter gebe­ten haben, gän­gige ML-Anwen­dungs­fälle zu auto­ma­ti­sie­ren. AWS (und andere Anbie­ter) bie­ten jetzt zum Bei­spiel Dienste wie Sprach­tran­skrip­tion, Über­set­zung, Text-to-Speech und Anoma­lie­er­ken­nung an. Diese bie­ten Unter­neh­men eine ein­fa­chere Mög­lich­keit, ML-gestützte Dienste zu nutzen. 

Die Stim­mungs­ana­lyse in Live-Audio­an­ru­fen ist zum Bei­spiel ein neuer, kom­ple­xer Anwen­dungs­fall, den AWS jetzt mit den Echt­zeit-Anruf­ana­ly­se­funk­tio­nen sei­nes Ama­zon Tran­scribe-Ser­vice unter­stützt. Saha sagte, dass die Funk­tion Sprach­er­ken­nungs­mo­delle ver­wen­det, um die Kun­den­stim­mung zu verstehen. 

Trend 5: Ver­ant­wor­tungs­volle KI 

Es gibt auch einen wach­sen­den Trend und Bedarf an ver­ant­wor­tungs­vol­ler KI. 

„Mit dem Wachs­tum von KI und ML geht die Erkennt­nis ein­her, dass wir sie ver­ant­wor­tungs­voll ein­set­zen müs­sen“, so Saha. 

Aus der Sicht von AWS muss eine ver­ant­wor­tungs­volle KI meh­rere Schlüs­sel­ei­gen­schaf­ten auf­wei­sen. Ein Sys­tem muss fair sein und für alle Benut­zer glei­cher­ma­ßen funk­tio­nie­ren, unab­hän­gig von Rasse, Reli­gion, Geschlecht und ande­ren Benut­zer­merk­ma­len. ML-Sys­teme müs­sen auch erklär­bar sein, damit Unter­neh­men ver­ste­hen, wie ein Modell funk­tio­niert. Außer­dem sind Gover­nance-Mecha­nis­men erfor­der­lich, die sicher­stel­len, dass ver­ant­wor­tungs­volle KI prak­ti­ziert wird. 

Trend 6: ML-Demo­kra­ti­sie­rung 

Der letzte wich­tige Trend, der ML vor­an­trei­ben wird, ist die Demo­kra­ti­sie­rung der Tech­no­lo­gie, die mehr Men­schen Zugang zu Werk­zeu­gen und Fähig­kei­ten verschafft. 

„Kun­den sagen uns, dass sie … oft Schwie­rig­kei­ten haben, alle benö­tig­ten Data-Sci­ence-Talente ein­zu­stel­len“, so Saha. 

Die Ant­wor­ten auf die Her­aus­for­de­rung der Demo­kra­ti­sie­rung lie­gen nach Ansicht von Saha in der wei­te­ren Ent­wick­lung von Low-Code und der Ver­wen­dung von fall­ge­steu­er­ten Tools sowie in der Bildung. 

„AWS inves­tiert auch in die Aus­bil­dung der nächs­ten Gene­ra­tion von Ent­wick­lern für maschi­nel­les Ler­nen“, sagte Saha. „Ama­zon hat sich ver­pflich­tet, bis 2025 mehr als 29 Mil­lio­nen Men­schen dabei zu hel­fen, ihre tech­ni­schen Fähig­kei­ten durch kos­ten­lose Cloud-Com­pu­ting-Schu­lun­gen zu verbessern. 

Quelle: ven­tur­ebeat

Erfah­ren Sie hier mehr über Lösun­gen im Bereich Data Manage­ment oder besu­chen Sie eines unse­rer kos­ten­lo­sen Web­i­nare.