Im Oktober veröffentlichte AWS einige Neuerungen. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Oktober dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS EC2, AWS Neptune und AWS Lambda betrachtet.
Compute
Amazon hat mit den neuen Trn1-Instanzen einen weiteren Deep-Learning-spezifischen Instanztypen veröffentlicht.
AWS EC2: Neue Trn1 Instanzen
Machine Learning in der Cloud ist ein perfektes Beispiel, um alle (Standard-)Vorteile der Cloud zu verdeutlichen. Unternehmen müssen keine extra Hardware beschaffen zum Trainieren der Modelle und im Allgemeinen können Modelle schneller trainiert werden, da mehr Ressourcen zur Verfügung stehen und diese in der Regel potenter und moderner sind. Weiterhin können die eben angesprochenen Ressourcen flexibel heruntergefahren werden und müssen nicht selbst verwaltet und gewartet werden.
Eine besondere Unterdisziplin des Machine Learnings profitiert von all dem besonders: Das Deep Learning. Im Deep Learning werden neuronale Netze mit quasi beliebig vielen Zwischenschichten eingesetzt. Angewendet wird diese spezielle Art des Machine Learnings häufig bei der Lösung sehr konkreter Probleme. Im Laufe der Zeit sind die Problemstellungen und Anforderungen aber immer komplizierter und immer konkreter geworden. Dies wirkt sich insbesondere auf die Trainingszeit aus und so benötigen sehr spezielle Modelle durchaus Wochen, wenn nicht sogar Monate des Trainings.
Um diesen langen Trainingszeiten entgegenzuwirken, veröffentlichen Hersteller vermehrt speziell für solche Anwendungsfälle konzipierte Chips. Das wohl bekannteste Beispiel sind die TPUs (Tensor Processing Units) von Google. Im vergangenen Jahr hat Amazon mit den GAUDI-Accelerators bereits einen Versuch unternommen, Google Konkurrenz zu machen, und auch die P4d-Instanzen sind bereits optimiert für Machine Learning Prozesse.
Im Vergleich zu den anderen beiden sollen die Trn1-Instanzen das beste Preis-Leistungs-Verhältnis bieten und bis zu 50% geringere Kosten verursachen als P4d-Instanzen. Durch die SDK von Amazon, in diesem Fall explizit durch AWS Neuron, sind nur wenige Code-Änderungen nötig, um die Trn1-Instanzen zu verwenden. Die Trn1-Instanzen bieten bis zu 16 AWS Trainium Accelerators und 800Gbps Bandbreite. Dies ist, ganz nebenbei, circa doppelt so schnell wie die aktuellste GPU-basierte Serie EC2-Instanzen. Um diese Geschwindigkeit zu ermöglichen, setzen die Trn1-Instanzen auf die zweite Generation des Elastic Fabric Adapters von AWS.
Die neuen Trn1-Instanzen sind zum Start zunächst nur in North Virginia sowie Oregon verfügbar. Ob die Instanzen auch in Europa bzw. in Europäischen Regionen verfügbar sein werden, ist noch nicht bekannt.
AWS Lambda
Seit vergangenem Jahr konnten S3-GET-Abfragen um selbstgeschrieben Code mittels S3 Object Lambda erweitert werden. Dies hat es Nutzern erlaubt, die zurückgegebenen Daten zu modifizieren und so beispielsweise Filter anzuwenden, Bilder zu bearbeiten oder vertrauliche Informationen zu anonymisieren. Diese Funktionalität wurde nun um weitere Abfragetypen erweitert und so können nun auch HEAD- und LIST-API-Abfragen um eigenen Code erweitert werden. Durch diese Erweiterungen kann nun die Sicht auf Inhalte eines Buckets an spezielle Benutzer bzw. Benutzergruppen angepasst werden oder Metadaten einzelner Objekte, wie dessen Name und dessen Größe, angepasst oder gar vollends maskiert werden.
Neben der oben beschriebenen Änderung hat AWS Lambda ein weiteres interessantes Feature im vergangenen Monat erhalten. Seit Mitte Oktober ist die AWS Parameters and Secrets Extension für AWS Lambda verfügbar. Die Erweiterung soll eine simple und einheitliche Möglichkeit bieten, Parameter aus dem Parameter Store und Secrets aus dem AWS Secrets Manager abzufragen. Im Allgemeinen soll durch die Nutzung der Erweiterung die Latenz verringert werden und somit Abfragezeiten verkürzt und Kosten reduziert werden.
Die Parameter und Secrets Extension ist ohne zusätzliche Gebühr in allen Regionen verfügbar. Die neuen Funktionalitäten der Amazon S3 Object Lambda sind ebenso in allen Regionen mit Ausnahme der GovCloud und China verfügbar.
Storage
Mit AWS Neptune Serverless gesellt sich ein neuer Service in die Reihe der „Serverless“-Services der AWS. Außerdem hat Amazon bekannt gegeben, dass File Cache nun frei verfügbar ist.
AWS Neptune Serverless
Amazon Neptune ist eine fully-managed Graph-Database in der AWS. Als fully-managed Service wurden dem Endnutzer alltägliche Aufgaben wie Patching und Backups bereits abgenommen, jedoch nicht die Kapazitätsplanung. Hier kommt das Konzept des „serverless“ Services im Spiel, wodurch Ressourcen automatisch an die aktuellen Abfragen und Workloads angepasst werden.
Wie bereits für Amazon Aurora ist nun auch für AWS Neptune ein sogenannter serverless Modus verfügbar, in welchem nun auch die Kapazitätsplanung von AWS übernommen wird. Die Implementierung ähnelt (leider) aber auch der von Aurora. Während Amazon Aurora v1 noch bis auf „0“ runterskaliert werden konnte, kann die aktuelle Version, Amazon Aurora v2, nur auf minimal 0,5 Einheiten runterskaliert werden. Dies hat zu Folge, dass bei Nutzung des Services s immer mindestens 50$ pro Monat berechnet werden. Während Aurora mit 0,5 Einheiten noch relativ klein und günstig ist, müssen für Neptune mindestens 2,5 Einheiten betrieben werden. Dies ist mit minimalen Kosten von Rund 240$ verbunden.
Trotz dieses negativen Aspekts ist die Einführung von Neptune Serverless ein Schritt um sich dem pay-as-you-go Modell stärker anzunähern und vom flexiblen Skalieren der Cloudressourcen zu profitieren. Neptune Serverless ist seit Oktober in Europa in London und Ireland verfügbar.
AWS FileCache
Während der Storage Days hat AWS Amazon File Cache angekündigt und nun, im Oktober 2022, ist der Service auch im GA-Status angekommen. Amazon File Cache ist, wie der Name es vermuten lässt, ein Caching Service. Das Hauptaugenmerk des Services liegt in der Verarbeitung von Files, die auf verschiedensten Locations und sogar on-premises gespeichert sein können. Dadurch, dass File Cache sowohl on-premises Daten als auch Cloud-native Daten verarbeiten kann, bietet sich der Service insbesondere in Hybrid-Architekturen an.
An den Service können bis zu acht NFS File-Systeme oder S3-Buckets angebunden werden. Das daraus entstehende Sammelsurium an Daten wird als vereinheitlichte Datenquelle bereitgestellt. Die Daten, die in File Cache vorgehalten werden, sind binnen weniger Millisekunden verfügbar. Zudem bietet der Service einen Durchsatz von mehreren Hundert GB/s. Zur Verbindung der on-premises Welt mit der Cloud greift der Service auf bereits existierende Netzwerkverbindungen zurück wie beispielsweise AWS Direct Connect oder Site-to-Site VPN.
Die Kosten von Amazon File Cache berechnen sich nach der Menge der vorgehaltenen Daten und Metadaten, gegebenenfalls anfallenden Kosten für die Abfrage von S3-Objekten sowie den üblichen Netzwerkkosten. In Europa ist der Service in Frankfurt, Irland und London verfügbar.
Für weitere regelmäßige Updates zum Thema AWS Cloud, folgen Sie unserer Präsenz auf Xing und Instagram oder direkt unserem Blog.