Oktober 2021
Nach der Vielzahl an Ankündigungen während der Storage Days im vergangenen Monat, ist die Quantität der Änderungen in diesem Monat zwar eher gering, ihre Qualität aber umso größer. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Oktober dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services Amazon EC2 und AWS Redshift vorgestellt. Weiterhin werden auch zwei Änderungen der beliebten Services AWS Lambda und AWS StepFunctions vorgestellt, welche bereits seit September verfügbar sind, allerdings erst nach Vervollständigung des dazugehörigen Blogbeitrags publiziert wurden.
Compute
Die wahrscheinlich wichtigste Neuerung in puncto Compute-Services der AWS stammt noch aus dem September und betrifft den Service AWS Lambda. Bisher wurden Lambda-Funktionen auf Intel-Prozessoren mit einer x86-Architektur ausgeführt. Dies können Kunden nun zukünftig ändern.
AWS Lambda – Graviton2
Für den serverless Compute-Service AWS Lambda wurde am Ende des Monats September ein eigentlich logischer nächster Schritt vorgestellt: Die Verwendung von Graviton2-Prozessoren bei der Ausführung von AWS Lambda-Funktionen. Bereits jetzt nutzen viele User der AWS Plattform die von Graviton2 gestützten EC2-Instanzen, um von den geringeren Kosten dieser, gegenüber denen der klassischen Intel– und Apple M1-Prozessoren, zu profitieren. Laut AWS können sowohl neue als auch bereits existierende Lambda Funktionen auf die Graviton2-Prozessoren migriert werden und so von bis zu 19% besserer Performance und 20 Prozent geringeren Kosten profitieren.
AWS selbst beschreibt die Migration bereits bestehender Funktionen auf die neuen Graviton2-Instanzen wie das Umlegen eines Schalters. Es sei an dieser Stelle allerdings angemerkt, dass zumindest einzelne Code-Passagen umgestaltet werden müssen, wenn die Funktionen Binärabhängkeiten aufweisen. Bei der Verwendung einer interpretierten Sprache wie Python oder auch Node.js sollte dies aber eher selten der Fall sein.
Die Skalierungsmöglichkeiten der Lambda-Funktionen sind bei der Verwendung von Graviton2-Prozessoren identisch mit den bisher bestehenden. Dementsprechend können auch bei der Umstellung des Prozessortyps bis zu 10 GB RAM und 6 vCPUs für eine Lambda-Funktion allokiert werden. Bisher werden die Sprachen Node.js 12 und 14, Python 3.8 und 3.9, Java 8 und 11, .NET Core 3.1 und Ruby 2.7 sowie weitere Custom Runtimes unterstützt. Verfügbar sind die Funktionen in Europa in Frankfurt, Irland und London. Für einen genaueren Kostenvergleich kann die AWS Dokumentation hinzugezogen werden, wobei hier natürlich potenzielle Zeitersparnisse nicht einkalkuliert sind.
Amazon EC2 – Gaudi Accelerators
Auch die EC2-Instanzen erlebten im Oktober eine Neuerung, denn für sie ist nun ein neuer Instanz-Typ verfügbar: Die DL1-Instances, die eine Antwort auf die TPUs von Google darstellen.
Machine Learning, und insbesondere Deep Learning, wird immer präsenter. Das Erstellen eines ML-Models ist ein iterativer Prozess bestehend aus dem Konstruieren des Anfangsmodels, dem Trainieren und Testen mit entsprechenden Datensätzen und dem Anpassen von Parametern. In den multiplen Layer, die dem Deep Learning seinen Namen geben, werden eine Vielzahl von mathematischen Operationen ausgeführt, die die die Ressourcen einer Instanz, trotz der Verwendung von zusätzlichen GPUs, häufig vollends ausschöpfen.
Hier sollen nun die DL1-Instanzen Besserung versprechen. Die DL1-Instanzen können in einer Größe von .24xlarge genutzt werden. In dieser Konfiguration haben die Instanzen 768GB Ram, 4 TB NVMe Speicher, 96vCPUs und 400 GB/s Netzwerk I/O, sowie 8 sogenannt „Gaudi Accelerators“, die jeweils 32 Gigabyte High Bandwidth Memory besitzen.
Im Gegensatz zu den TPU-Units von Google wird von den AWS DL1-Instanzen neben Tensorflow auch PyTorch als Framework unterstützt. Durch den Wechsel von GPU-Basierten EC2-Instanzen auf die neuen DL1-Instanzen bewirbt Amazon eine Kostenersparnis von bis zu 40%. Die Instanzen sind allerdings zum jetzigen Stand erst in zwei Regionen verfügbar: North Virginia und Oregon. Für eine detaillierte Vorstellung von Gaudi und den neuen EC2-Instanzen sei auf die Internetseite der Entwickler verwiesen.
Orchestration and Control
AWS StepFunctions – AWS SDK Service Integration
Auch die im Folgendem Abschnitt vorgestellte Änderung zu den AWS StepFunctions wurde bereits im September bekannt gegeben. Bisher unterstützten StepFunctions eher wenige, aber die wichtigsten AWS Services, wie beispielsweise AWS Lambda, und dienten so zur Orchestrierung dieser Services, sodass beispielsweise die eben genannte AWS Lambda-Funktionen in einer kontrollierten Reihenfolge ausgeführt werden konnten. Neben AWS Lambda wurden noch 16 weitere Services von dem low-Code Workflow Service unterstützt und konnten orchestriert werden. Diese Zahl hat sich im Oktober mehr als verzehnfacht und es wurde bekannt gegeben, dass nun insgesamt über 200 AWS Services unterstützt werden und die Zahl der AWS API Actions von 46 auf über 9000 erhöht wurde. Diese Vervielfältigung von Möglichkeiten ist auf die Nutzung der AWS SDK Service Integration zurückzuführen.
Die AWS SDK Service Integration – und somit auch die erneuerten StepFunctions – sind in Europa in den Regionen Irland und Mailand verfügbar, allerdings soll sie innerhalb der nächsten Zeit auch in allen anderen Regionen – und somit auch in Frankfurt – zur Verfügung stehen.
AWS Cloud Control API
Das Portfolio an Services, die von Amazon bereitgestellt werden, ist über die Jahre stetig gewachsen. Seit der Einführung der ersten Services vor nun über 15 Jahren ist die Zahl der nutzbaren Services auf über 200 angestiegen. Dieses stetige Wachstum an Services brachte allerdings einen Nachteil mit sich, denn bisher war es so, dass jeder Service seine eigene API samt seines eigenen Syntaxes besaß. Zur Verdeutlichung, was das bedeutet, ein kurzes Beispiel für diese unterschiedlichen Syntaxe: Möchte man einen S3-Bucket erstellen, so musste man bis dato die CreateBucket-API und für die Erstellung einer EC2-Instanz die RunInstances-API verwenden.
Durch die verschiedenen Anwendungsgebiete der APIs der einzelnen Services, erschwert der unterschiedlichen Syntax das Management und die Wartung von Programmen, die diese nutzen. Dies macht sich insbesondere bemerkbar, wenn man generische Templates erstellen möchte zur Erstellung von Ressourcen via API-Abfragen. Durch die neue AWS Cloud Control API soll die Komplexität nun aber reduziert werden.
Die Cloud Control API ist eine Menge von standardisierten CRUDL-APIs, also Create, Read, Update, Delete und List-APIs, und ist seit Oktober für eine Vielzahl von Services verfügbar. Derzeit besteht sie aus 5 einfachen Befehlen – CreateResource, GetResource, UpdateResource, DeleteResource, ListResource – und vereinheitlicht so die Syntax. Um auf das obige Beispiel von der Erstellung eines S3-Buckets und einer EC2-Instanz zurückzukommen, würde nun in beiden Fällen die CreateResource-API aufgerufen werden mit dem Typ der zu erstellenden Ressource und seinen Attributen als zusätzliche Parameter.
Laut Amazon sollen die neuen und einheitlicheren Cloud Control APIs die klassischen APIs nicht vollständig ablösen, sondern parallel zu diesen existieren. Nichtsdestoweniger ist es einfacher, bei der Erstellung neuer Applikationen zukünftig auf die Cloud Control APIs zurückzugreifen. Die Cloud Control APIs sind seit Anfang Oktober in allen AWS Regionen, mit Ausnahme von China, verfügbar und es fallen keine zusätzlichen Kosten an, sodass lediglich die zugrundeliegenden AWS Ressourcen bezahlt werden müssen.
Data Warehousing
Amazon Redshift: Data Exchange
Wenn man die neu hinzugekommenen Features betrachtet, hat AWS Redshift in den vergangenen Wochen und Monaten einiges an Boden gegenüber seinen Kontrahenten BigQuery und Snowflake gut gemacht. Ein Beispiel hierfür ist der von uns bereits im Mai vorgestellte Service RedshiftML, mit welchem über SQL-Abfragen Machine Learning Modelle aus Redshift heraus trainiert und abgefragt werden können. Dies war bis dato eigentlich ein Markenzeichen des Google eigenen OLAP Data Warehouses BigQuery. Analog hierzu gestaltet sich auch der Data Exchange für Amazon Redshift, wobei die Vorreiterrolle im Thema Data Sharing bisher Snowflake zuzusprechen war.
Data Exchange für Amazon Redshift basiert schlussendlich auf dem bereits 2019 vorgestellten AWS Data Exchange, mit welchem von Drittanbietern veröffentlichte Datentöpfe abonniert und in einen eigenen S3-Bucket kopiert und weiterverarbeitet werden konnten. Die Neuerungen hier liegt nun darin, dass solche Datentöpfe direkt aus Redshift heraus abonniert und abgefragt werden können und keine zusätzliche ETL-Prozessierung notwendig ist.
Genau wie bei Snowflake stellen die Data Provider die Daten zur Verfügung und werden über das Abonnement vergütet. Die Transaktion erfolgt automatisch durch Redshift Exchange und wird mit dem AWS Rechnungskonto verrechnet. Verfügbar ist Data Exchange für Amazon Redshift in allen Regionen, in denen auch RA3-Instanzen verfügbar sind und somit insbesondere in Frankfurt, Irland und London.
November 2021
Insbesondere gegen Ende des Monats November war spürbar, dass die diesjährige re:invent immer näher rückte und so wurden immer mehr Neuerungen und Ankündigungen von AWS veröffentlich. Über die großen Neuankündigungen der re:invent werden wir in einem separatem Blogbeitrag berichten. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats November dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services Amazon Fargate und AWS S3 vorgestellt.
Compute
AWS Fargate
Erst vor kurzem erst hat AWS die Verfügbarkeit von Graviton2-Prozessoren für AWS Lambda bekanntgegeben und nun sind diese Prozessoren auch für AWS Fargate mit AWS ECS verfügbar. AWS Fargate ist ein serverless-compute Service der AWS, der für die Bereitstellung von Containern genutzt werden kann und das Management und die Skalierung dieser übernimmt.
AWS verspricht bei der Nutzung von AWS Gratiton2-Prozessoren ein um bis zu 40 Prozent besseres Preis-Leistungs-Verhältnis und 20 Prozent geringere Kosten als bei vergleichbaren Intel-Prozessoren. Um die Graviton-Prozessoren zu nutzen, müssen allerdings unter Umständen die Images angepasst werden und zu Multi-Architecture Container Images umgewandelt werden.
Multi-Architecture Container Images bestehen aus zwei Teilen: Dem eigentlichen Layer und einem Manifest. Das Manifest bestimmt hierbei, welche Gruppe von Layern schlussendlich das Image bilden, sowie Runtime-Characteristics wie die Architektur. Diese kann entweder ARM64, wie es für die Graviton-Prozessoren notwendig ist, oder X86_64 sein. Durch das Erstellen von Multi-Architecture Container Images besteht die Möglichkeit, dasselbe Repository für verschiedene Architekturen zu verwenden.
AWS Fargate mit AWS Graviton2 Prozessoren ist in allen Regionen verfügbar, in denen auch AWS Fargate bisher verfügbar war, allerdings werden die Graviton2-Prozessoren nur von der Fargate Plattform Version 1.4.0 oder später unterstützt. Für eine detaillierte Auflistung der Preise, verweisen wir auf die AWS Dokumentation.
Karpenter
Im vorangegangenen Monat wurde bekannt gegeben, dass nun Karpenter bereit ist für produktive Use-Cases und der Preview-Phase entwachsen ist. Karpenter ist open-source und ein flexibler Autoscaler für Kubernetes-Cluster auf AWS. Die Nutzung von Karpenter soll AWS Kunden dabei unterstützen, die Verfügbarkeit und Effizienz von Applikationen zu erhöhen, indem es die Menge an zur Verfügung stehenden Compute-Ressourcen der derzeitigen Auslastung anpasst.
Karpenter wird auf dem Cluster selbst installiert und beobachtet die aggregierten Ressourcen, die von Pods angefragt werden. Sollten diese Anfragen einen gewissen Schwellenwert überschreiten oder unterschreiten, werden einfach weitere Ressourcen von Karpenter zur Verfügung gestellt oder terminiert. Dies geschieht, indem Karpenter Befehle an den unterliegenden Compute-Service, wie beispielsweise Amazon EC2, sendet.
Karpenter ist somit eine einfacher zu nutzende Alternative als bisherige Lösungen zur dynamischen Anpassung von Kubernetes Clustern, welche häufig auf Amazon EC2 Auto-Scaling Groups und Kubernetes Cluster Autoscaler zurückgreifen mussten, da insbesondere die Konfiguration des Kubernetes Autoscaler einige Tücken aufweisen konnte.
Storage
EBS Snapshot Archive
Im November ist mit Amazon EBS Snapshots Archive ist ein neues Storage-Tier für die Langzeitspeicherung von Elastic Block Store Snapshots hinzugekommen.
EBS selbst ist ein Block Storages Service, welcher zum Beispiel von EC2-Instancen zur Speicherung von Daten verwendet werden kann oder das Booten eines Betriebssystems ermöglicht. EBS Snapshots können erstellt werden, um eine Kopie der Daten zu einem bestimmten Zeitpunkt zu erstellen. Hierbei enthält der erste Snapshot eines EBS-Volumes alle Daten, mit denen das Volumen beschrieben wurde. Folgende Screenshots speichern nur noch die Veränderungen, wodurch EBS Snapshots in ihrer Funktionsweise schon sehr effizient.
Durch regulatorische Vorgaben ist es möglich, dass Snapshots über einen langen Zeitraum gespeichert werden müssen. Dies kann, obwohl Snapshots bereits sehr kosteneffizient sind, zu unerwünscht hohen Kosten führen, wenn sie unter der Verwendung eines Hot-Data Storage-Tiers abgelegt werden. Da die meisten Snapshots allerdings nie benutzt werden, bietet es sich an, diese unter der Verwendung eines der Cold-Data Storage-Tiers von AWS S3 abzulegen, um die Speicherkosten möglichst gering zu halten. Um dies war bisher zu erreichen, mussten allerdings selbstgeschrieben Skripte verwendet werden, welche unter anderem temporäre EC2-Instanzen erstellen mussten, um die Snapshots wiederherzustellen, zu mounten und schlussendlich die Daten zu transferieren.
EBS Snapshots Archive bietet nun eine kostengünstige Lösung, um Snapshots für mindestens 90 Tage zu speichern – ohne den zusätzlichen Aufwand, der mit den selbstgeschriebenen Skripten einhergeht. Um Snapshots zu verwenden, die in Snapshots Archive abgelegt worden sind, müssen diese zunächst wiederhergestellt werden. Das Wiederherstellen eines solchen Snapshots kann zwischen 24 und 72 Stunden dauern – je nachdem wie groß der Snapshot ist.
EBS Snapshot Archive ist ab sofort in insgesamt 17 Regionen und insbesondere in allen Regionen in Europa verfügbar. Wie bei allen pay-as-you-go Tarifen, richten sich die Kosten für die Nutzung dieses Storage-Tiers zum einen nach der Menge an gespeicherten Daten und zum anderen an der Menge an transferierten Daten. Für die Speicherung von Daten entfällt eine Gebührt von 0,0125$/GB pro Monat an und für den Transfer 0,03$/GB. Eine genauere Auflistung aller Preise kann der Preistabelle auf der dazugehörigen AWS-Seite entnommen werden.
S3 Event Notifications mit EventBridge
Amazon EventBridge ist ein Service von AWS, der es erlaubt, event-gesteuerte Applikationen zu erstellen. Seit November 2021 ist dies nun auch für AWS S3 möglich und stellt somit eine alternative zu den bisherigen S3 Event Notifications dar, die es bisher ermöglicht haben, in SNS Topics oder SQS Queues zu schreiben oder eine AWS Lambda Funktion zu triggern, wenn eine Veränderung an einem Objekt in S3 aufgetreten ist.
Die bisherigen Möglichkeiten wurden dadurch erweitert, dass S3 Event Notifications direkt zu EventBridge übergeben werden können. Dies ermöglicht es, direkt auf die Events zu Filtern und Events zu mehreren Zielorten zu routen und so beispielsweise mehrere Lambda-Funktionen zu triggern. Weiterhin garantiert die Verwendung von EventBridge eine at-least-once-delivery, wodurch Architekturen zuverlässiger werden.
Event Notifications mit EventBridge sind ab sofort in allen AWS Regionen verfügbar. Bei der Verwendung fallen Kosten in Höhe von 1$ pro 1 Millionen Events an.
Monitoring
Amazon CloudWatch
Amazon CloudWatch ist ein kostengünstiges Monitoring Tool, welches out-of-the-box in der AWS verwendet werden kann und keinen Wartungsaufwand mit sich bringt. Seit seinem Launch sind viele Features hinzugekommen, die alle die Monitoring-Möglichkeiten des Services weiter verbessert haben. In diese Reihe reiht sich auch das neueste Feature ein: Im November 2021 wurde von AWS das Real-User Monitoring in AWS CloudWatch vorgestellt.
Eine der größten Herausforderungen, wenn man Applikationen monitort, ist, die Performanceschwankungen des Systems zu verstehen und durch Anpassungen den Nutzern ein optimales Nutzungserlebnis zu gewährleisten. Hierbei ist allerdings eine Vielzahl von Variablen zu berücksichtigen, die von User zu User variieren können, wie beispielsweise der Browser Typ und seine Konfigurationen, der Standort des Nutzers, ….
Amazon CloudWatch Real-User Monitoring (RUM) hilft seinen Nutzern dabei, diese Metriken zu sammeln und auszuwerten, um ein besseres Verständnis von der Performance einer Applikation für die einzelnen Endnutzer zu erhalten. Um den Service zu nutzen, muss lediglich die Applikation vorher registriert werden und ein vorgefertigtes Snippet JavaScript-Code an den Header jeder Seite hinzugefügt werden. Dieses Snippet sendet dann die Metriken der einzelnen Nutzer zu CloudWatch RUM. Dort werden diese dann konsolidiert und können von Nutzern analysiert werden.
Amazon CloudWatch RUM ist ab sofort verfügbar in insgesamt 10 AWS Regionen und unteranderem in Irland, London, Frankfurt sowie Stockholm. Für die Nutzung von AWS CloudWatch RUM fallen Gebühren in Höhe von 1$ pro 100k Events an. Insgesamt birgt CloudWatch RUM, insbesondere in Kombination mit AWS X‑Ray, das Potential, Applikationen durchsichtiger zu machen und so Performance-Schwachstellen schneller aufzudecken.
Dezember 2021
Der Dezember stand in der AWS zu einem großen Teil im Zeichen des Networkings. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Dezember dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS Shield, AWS EKS, AWS RDS und DynamoDB vorgestellt.
Networking
VPC Network Access Analyzer
Der AWS VPC Network Access Analyzer ist ein neues Feature in der AWs, welches sich insbesondere bei Network- und Security-Engineers einer jeden Organisation großer Beliebtheit erfreuen wird. Das neue Feature wurde speziell dafür konzipiert, Netzwerkkonfigurationen, die zu einem ungewollten Zugriff auf das eigene Netzwerk führen, aufzudecken und erspart den oben genannten Engineers somit die manuelle Überprüfung jedes einzelnen Eintrags in den Netzwerkkonfigurationen und reduziert die Gefahr menschlicher Fehler.
Der AWS VPC Network Access Analyzer nutzt die „Automated Reasoning Technology“, welche beispielsweise bereits im IAM Access Analyzer und dem VPC Reachability Analyzer eingesetzt werden und Network Access Scopes, um die gewünschten Verbindungen zwischen den AWS Ressourcen zu definieren. Die Scopes sind unabhängig von dem jeweiligen Netzwerk und Konfiguration und können als allgemeine Definition für den Zugriff auf ein Netzwerk und dessen Verbindungen verstanden werden. So können Nutzer zum Beispiel einen Scope erstellen, um zu überprüfen, dass alle Ressourcen des Sales-Teams eines Unternehmens unabhängig von denen des Development-Teams sind.
Die Analyse eines Netzwerks dauert nur noch wenige Minuten und berücksichtigt beispielsweise Security Groups, CIDR-Ranges, Prefix-Lists, Endpoints und viele weitere AWS Ressourcen.
Der VPC Network Access Analyzer ist in Europa in Frankfurt, Irland, London, Mailand, Paris und Stockholm verfügbar und kostet 0,002 USD pro ENI welches analysiert wird. In den weiteren Monaten soll der Service noch weiter ausgebaut werden, sodass Analysen automatisch in regelmäß9gen Abständen ausgeführt werden können und IPv6 Adressen unterstützt werden.
Elastic Kubernetes Service
Die Containerisierung von Applikationen ist in den letzten Jahren immer weiter zum Standard geworden und insbesondere Kubernetes wird immer häufiger verwendet.
Kubernetes selbst ist eine portable und erweiterbare Open-Source-Plattform, die jedem Pod innerhalb eines Clusters eine IP-Adresse zuweist. Hierbei sollte berücksichtigt werden, dass das Verhältnis von Pods zu verfügbaren IP-Adressen mindestens 2:1 sein sollte, um Probleme bei der Allokation von IP-Adressen während des Updates des Clusters umgangen werden können.
Durch die Vielzahl an IP-Adressen, die so reserviert werden, kann ein klassisches IPv4 Netzwerk mit seiner „geringen“ Anzahl an Adressen ein Bottleneck darstellen. Dieses Problem konnte zwar durch die Virtualisierung von IP-Adressen mittels Installation eines Container Network Plugins umgangen werden, allerdings verloren Administratoren so auch die Möglichkeiten eines effektiven Troubleshootings. Weiterhin hat diese Lösung nur schlecht skaliert, da für die Kommunikation mit einem Service, der außerhalb des VPCs liegt, der Traffic von den Pods über multiple Hops geleitet werden musste, was natürlich die Latenz der Anwendung sowie dessen Komplexität erhöht.
Um dies nun zu vereinfachen können nun IPv6-Adressen verwendet werden, welche mehr Adressen zur Verfügung stellen. Dies bringt mindestens zwei Vorteile mit sich: Zum einen können mehr Pods verwendet werden. Zum anderen kann der Traffic nun über weniger Hops geleitet werden, da die Umleitung über einen extra NAT-Hop wegfällt.
Die IPv6-Adressen für Amazon EKS sind seit Dezember 2021 in allen AWS Regionen verfügbar, in denen auch EKS verfügbar sind. Bei der Verwendung von IPv6-Adressen fallen zudem keine weiteren Kosten an.
AWS Direct Connect SiteLink
Bei der Nutzung eines Cloud-Providers wie AWS ist insbesondere die Verbindung zwischen dem eigenen Datacenter und dem des Cloudanbieters ein heikles Thema. Mit AWS Direct Connect SiteLink besteht nun eine weitere Möglichkeit, eine Site-2-Site Verbindung zwischen dem eigenem on-premises Netzwerk und dem globalen AWS Backbone herzustellen.
Seit Dezember 2021 können on-premises Netzwerke mit sogenannten Direct Connect Locations verbunden werden. Bisher existieren 108 Direct Connect Locations, die auf 32 Länder verteilt sind. Da der Service zu den globalen Services der AWS zählt, ist ein Peering zwischen unterschiedlichen Regionen nicht notwendig.
AWS DirectConnect Sitelink ist seit Dezember 2021 verfügbar und erlaubt die Verbindung von jedem beliebigen on-premises Netzwerk zu einer Direct Connect Location und ist somit überall verfügbar – mit Ausnahme der beiden Regionen in China. Die Preisstruktur orientiert sich an dem pay-as-you-go Grundsatz der Cloud. Da jedes Unternehmen unterschiedliche Ansprüche beziehungsweise Regularien an die Verbindung zu AWS hat, verweisen wir für genauere Informationen zu den Kosten des Services auf die dazugehörige Seite von AWS.
AWS Shield
AWS Shield ist ein Security-Service in der AWS, der Ressourcen effektiv gegen DDoS-Angriffe verteidigen soll. Im Allgemeinen gibt es zwei Tiers für AWS Shield: Standard und Advanced.
Von den Vorteilen des Standard-Tiers, wie der Abwehr von DDoS-Angriffen über Layer 3 und 4, profitieren alle Nutzer der AWS automatisch und ohne zusätzliche Kosten. Um diesen Schutz zu erhöhen und zu personalisieren, um sich beispielsweise gegen DDoS Angriffe über Layer 7 zu verteidigen, können Nutzer der AWS dem Advanced Tier beitreten. Weiterhin bietet das Advanced Tier einen besseren Schutz gegen größere DDoS-Angriffe, Einblicke in Echtzeit in eine solche Attacke und eine Integration in AWS WAF.
Im Dezember ist für das Advanced Tier von AWS Shield ein Update veröffentlicht worden, welches automatisch Regeln in AWS WAF erstellt, testend und implementiert, um DDoS Angriffe über das Layer 7 zu verhindern. Für die Verwendung fallen keine zusätzlichen Kosten an.
Storage
Dynamo DB: Neue Klassen für Tabellen
DynamoDB ist eine fully-managed, serverless NoSQL Database, welche insbesondere bei Anwendungen, die eine geringe Latenz besitzen müssen, zum Einsatz kommt. Nun ist es allerdings auch hier so wie bei jedem anderen Storage-Service auch, dass nicht alle Daten gleich häufig abgefragt werden und so wie in anderen Services auch, bietet AWS auch hier seit Dezember 2021 nun die Möglichkeit, Daten die seltener abgefragt werden, in einer anderen Speicherklasse abzulegen, welche geringere Kosten für das Speichern aber höhere Kosten für die Abfrage von Daten bietet.
Mit der neuen Dynamo DB Standard-IA Table Class verspricht Amazon Preisersparungen von bis zu 60% geringeren Speicherkosten gegenüber den normalen DynamoDB Standard Tables bei derselben Performance, Verfügbarkeit und Skalierbarkeit und bietet so, eine gute Lösung für Daten, die nur selten abgefragt werden, aber innerhalb weniger Millisekunden verfügbar sein müssen.
Die neuen DynamoDB Standard-IA Tabellen sind in allen Regionen mit Ausnahme von den beiden Regionen in China und AWS GovCloud verfügbar.
Amazon RDS Custom: SQL-Server
SQL-Server ist eine der wahrscheinlich am verbreitetsten Datenbanken in der on-premises Welt und seit Dezember kann SQL Server auch in Verbindung mit Amazon RDS Custom genutzt werden.
Amazon RDS Custom bringt alle Vorteile von Amazon RDS mit sich, aber im Unterschied zu RDS selbst, können Nutzer die Administration der Datenbank – zumindest teilweise – selbst durchführen. Administratoren können so beispielsweise weitere third-party Anwendungen auf der Datenbank oder modifizierte OS Packages auf der Datenbank installieren.
Mit RDS Custom for SQL-Server können Features hinzugefügt werden, wie beispielsweise bestimmte Treiber oder eine erhöhte Anzahl von Datenbanken pro Instanz. RDS Custom for SQL Server bietet sowohl Monitoring als auch Recovery Funktionalitäten, High-Availability-Konfigurationen mit Always On Availability Groups und automatischen Back-Ups an.
Amazon RDS Custom for SQL-Server ist in Europa in Frankfurt, Irland und Stockholm verfügbar.
Für weitere regelmäßige Updates zum Thema AWS Cloud, folgen Sie unserer Präsenz auf Xing und Instagram oder direkt unserem Blog.