Im Okto­ber ver­öf­fent­lichte AWS einige Neue­run­gen. Die­ser Blog­bei­trag stellt einen Aus­schnitt aus den Neue­run­gen und Ankün­di­gun­gen des Monats Okto­ber dar, erhebt aber nicht den Anspruch auf Voll­stän­dig­keit. Das Haupt­au­gen­merk liegt hier­bei auf Ver­än­de­run­gen, bei denen wir von einem direk­ten Ein­fluss auf unsere Kun­den aus­ge­hen. In die­sem Bei­trag wer­den ins­be­son­dere Ände­run­gen und Ankün­di­gun­gen der Ser­vices AWS EC2, AWS Nep­tune und AWS Lambda betrachtet.

Com­pute

Ama­zon hat mit den neuen Trn1-Instan­zen einen wei­te­ren Deep-Lear­ning-spe­zi­fi­schen Instanz­ty­pen veröffentlicht. 

AWS EC2: Neue Trn1 Instanzen

Machine Lear­ning in der Cloud ist ein per­fek­tes Bei­spiel, um alle (Standard-)Vorteile der Cloud zu ver­deut­li­chen. Unter­neh­men müs­sen keine extra Hard­ware beschaf­fen zum Trai­nie­ren der Modelle und im All­ge­mei­nen kön­nen Modelle schnel­ler trai­niert wer­den, da mehr Res­sour­cen zur Ver­fü­gung ste­hen und diese in der Regel poten­ter und moder­ner sind. Wei­ter­hin kön­nen die eben ange­spro­che­nen Res­sour­cen fle­xi­bel her­un­ter­ge­fah­ren wer­den und müs­sen nicht selbst ver­wal­tet und gewar­tet werden.

Eine beson­dere Unter­dis­zi­plin des Machine Lear­nings pro­fi­tiert von all dem beson­ders: Das Deep Lear­ning. Im Deep Lear­ning wer­den neu­ro­nale Netze mit quasi belie­big vie­len Zwi­schen­schich­ten ein­ge­setzt. Ange­wen­det wird diese spe­zi­elle Art des Machine Lear­nings häu­fig bei der Lösung sehr kon­kre­ter Pro­bleme. Im Laufe der Zeit sind die Pro­blem­stel­lun­gen und Anfor­de­run­gen aber immer kom­pli­zier­ter und immer kon­kre­ter gewor­den. Dies wirkt sich ins­be­son­dere auf die Trai­nings­zeit aus und so benö­ti­gen sehr spe­zi­elle Modelle durch­aus Wochen, wenn nicht sogar Monate des Trainings.

Um die­sen lan­gen Trai­nings­zei­ten ent­ge­gen­zu­wir­ken, ver­öf­fent­li­chen Her­stel­ler ver­mehrt spe­zi­ell für sol­che Anwen­dungs­fälle kon­zi­pierte Chips. Das wohl bekann­teste Bei­spiel sind die TPUs (Ten­sor Pro­ces­sing Units) von Google. Im ver­gan­ge­nen Jahr hat Ama­zon mit den GAUDI-Acce­le­ra­tors bereits einen Ver­such unter­nom­men, Google Kon­kur­renz zu machen, und auch die P4d-Instan­zen sind bereits opti­miert für Machine Lear­ning Prozesse.

Im Ver­gleich zu den ande­ren bei­den sol­len die Trn1-Instan­zen das beste Preis-Leis­tungs-Ver­hält­nis bie­ten und bis zu 50% gerin­gere Kos­ten ver­ur­sa­chen als P4d-Instan­zen. Durch die SDK von Ama­zon, in die­sem Fall expli­zit durch AWS Neu­ron, sind nur wenige Code-Ände­run­gen nötig, um die Trn1-Instan­zen zu ver­wen­den. Die Trn1-Instan­zen bie­ten bis zu 16 AWS Trai­nium Acce­le­ra­tors und 800Gbps Band­breite. Dies ist, ganz neben­bei, circa dop­pelt so schnell wie die aktu­ellste GPU-basierte Serie EC2-Instan­zen. Um diese Geschwin­dig­keit zu ermög­li­chen, set­zen die Trn1-Instan­zen auf die zweite Gene­ra­tion des Ela­s­tic Fabric Adap­ters von AWS.

Die neuen Trn1-Instan­zen sind zum Start zunächst nur in North Vir­gi­nia sowie Ore­gon ver­füg­bar. Ob die Instan­zen auch in Europa bzw. in Euro­päi­schen Regio­nen ver­füg­bar sein wer­den, ist noch nicht bekannt.

AWS Lambda

Seit ver­gan­ge­nem Jahr konn­ten S3-GET-Abfra­gen um selbst­ge­schrie­ben Code mit­tels S3 Object Lambda erwei­tert wer­den. Dies hat es Nut­zern erlaubt, die zurück­ge­ge­be­nen Daten zu modi­fi­zie­ren und so bei­spiels­weise Fil­ter anzu­wen­den, Bil­der zu bear­bei­ten oder ver­trau­li­che Infor­ma­tio­nen zu anony­mi­sie­ren. Diese Funk­tio­na­li­tät wurde nun um wei­tere Abfra­ge­ty­pen erwei­tert und so kön­nen nun auch HEAD- und LIST-API-Abfra­gen um eige­nen Code erwei­tert wer­den. Durch diese Erwei­te­run­gen kann nun die Sicht auf Inhalte eines Buckets an spe­zi­elle Benut­zer bzw. Benut­zer­grup­pen ange­passt wer­den oder Meta­da­ten ein­zel­ner Objekte, wie des­sen Name und des­sen Größe, ange­passt oder gar voll­ends mas­kiert werden.

Neben der oben beschrie­be­nen Ände­rung hat AWS Lambda ein wei­te­res inter­es­san­tes Fea­ture im ver­gan­ge­nen Monat erhal­ten. Seit Mitte Okto­ber ist die AWS Para­me­ters and Secrets Exten­sion für AWS Lambda ver­füg­bar. Die Erwei­te­rung soll eine simple und ein­heit­li­che Mög­lich­keit bie­ten, Para­me­ter aus dem Para­me­ter Store und Secrets aus dem AWS Secrets Mana­ger abzu­fra­gen.  Im All­ge­mei­nen soll durch die Nut­zung der Erwei­te­rung die Latenz ver­rin­gert wer­den und somit Abfra­ge­zei­ten ver­kürzt und Kos­ten redu­ziert werden.

Die Para­me­ter und Secrets Exten­sion ist ohne zusätz­li­che Gebühr in allen Regio­nen ver­füg­bar. Die neuen Funk­tio­na­li­tä­ten der Ama­zon S3 Object Lambda sind ebenso in allen Regio­nen mit Aus­nahme der Gov­Cloud und China verfügbar.

Sto­rage

Mit AWS Nep­tune Ser­ver­less gesellt sich ein neuer Ser­vice in die Reihe der „Serverless“-Services der AWS. Außer­dem hat Ama­zon bekannt gege­ben, dass File Cache nun frei ver­füg­bar ist.

AWS Nep­tune Serverless

Ama­zon Nep­tune ist eine fully-mana­ged Graph-Data­base in der AWS. Als fully-mana­ged Ser­vice wur­den dem End­nut­zer all­täg­li­che Auf­ga­ben wie Patching und Back­ups bereits abge­nom­men, jedoch nicht die Kapa­zi­täts­pla­nung. Hier kommt das Kon­zept des „ser­ver­less“ Ser­vices im Spiel, wodurch Res­sour­cen auto­ma­tisch an die aktu­el­len Abfra­gen und Workloads ange­passt werden.

Wie bereits für Ama­zon Aurora ist nun auch für AWS Nep­tune ein soge­nann­ter ser­ver­less Modus ver­füg­bar, in wel­chem nun auch die Kapa­zi­täts­pla­nung von AWS über­nom­men wird. Die Imple­men­tie­rung ähnelt (lei­der) aber auch der von Aurora. Wäh­rend Ama­zon Aurora v1 noch bis auf „0“ run­ter­ska­liert wer­den konnte, kann die aktu­elle Ver­sion, Ama­zon Aurora v2, nur auf mini­mal 0,5 Ein­hei­ten run­ter­ska­liert wer­den. Dies hat zu Folge, dass bei Nut­zung des Ser­vices s immer min­des­tens 50$ pro Monat berech­net wer­den. Wäh­rend Aurora mit 0,5 Ein­hei­ten noch rela­tiv klein und güns­tig ist, müs­sen für Nep­tune min­des­tens 2,5 Ein­hei­ten betrie­ben wer­den. Dies ist mit mini­ma­len Kos­ten von Rund 240$ verbunden.

Trotz die­ses nega­ti­ven Aspekts ist die Ein­füh­rung von Nep­tune Ser­ver­less ein Schritt um sich dem pay-as-you-go Modell stär­ker anzu­nä­hern und vom fle­xi­blen Ska­lie­ren der Clou­dres­sour­cen zu pro­fi­tie­ren. Nep­tune Ser­ver­less ist seit Okto­ber in Europa in Lon­don und Ire­land verfügbar.

AWS Fil­e­Cache

Wäh­rend der Sto­rage Days hat AWS Ama­zon File Cache ange­kün­digt und nun, im Okto­ber 2022, ist der Ser­vice auch im GA-Sta­tus ange­kom­men. Ama­zon File Cache ist, wie der Name es ver­mu­ten lässt, ein Caching Ser­vice. Das Haupt­au­gen­merk des Ser­vices liegt in der Ver­ar­bei­tung von Files, die auf ver­schie­dens­ten Loca­ti­ons und sogar on-premises gespei­chert sein kön­nen. Dadurch, dass File Cache sowohl on-premises Daten als auch Cloud-native Daten ver­ar­bei­ten kann, bie­tet sich der Ser­vice ins­be­son­dere in Hybrid-Archi­tek­tu­ren an.

An den Ser­vice kön­nen bis zu acht NFS File-Sys­teme oder S3-Buckets ange­bun­den wer­den. Das dar­aus ent­ste­hende Sam­mel­su­rium an Daten wird als ver­ein­heit­lichte Daten­quelle bereit­ge­stellt. Die Daten, die in File Cache vor­ge­hal­ten wer­den, sind bin­nen weni­ger Mil­li­se­kun­den ver­füg­bar. Zudem bie­tet der Ser­vice einen Durch­satz von meh­re­ren Hun­dert GB/s. Zur Ver­bin­dung der on-premises Welt mit der Cloud greift der Ser­vice auf bereits exis­tie­rende Netz­werk­ver­bin­dun­gen zurück wie bei­spiels­weise AWS Direct Con­nect oder Site-to-Site VPN.

Die Kos­ten von Ama­zon File Cache berech­nen sich nach der Menge der vor­ge­hal­te­nen Daten und Meta­da­ten, gege­be­nen­falls anfal­len­den Kos­ten für die Abfrage von S3-Objek­ten sowie den übli­chen Netz­werk­kos­ten. In Europa ist der Ser­vice in Frank­furt, Irland und Lon­don verfügbar.

Für wei­tere regel­mä­ßige Updates zum Thema AWS Cloud, fol­gen Sie unse­rer Prä­senz auf Xing und Insta­gram oder direkt unse­rem Blog.