Januar 2022
Nach einem ruhigem Jahreswechsel gab es auch im Januar nur wenige Neuerungen in der AWS-Cloud. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Januar dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS GuardDuty, Amazon EFS und der neuen AWS Konsole vorgestellt.
UI/UX
Die Neue AWS Konsole
Die wohl auffälligste Neuerung des vergangenen Monates ist die Neugestaltung der AWS Konsole.
Für die meisten Nutzer ist der Home-Bildschirm der AWS Konsole der erste Anlaufpunkt, wenn man mit AWS arbeitet. Bisher wurden hier die zuletzt verwendeten Services sowie statische Links aufgelistet, doch je nach Profil des Anwenders waren dies keine nützlichen Verlinkungen. Um die Nutzererfahrung zu verbessern und längeres zusammensuchen von Informationen in der AWS Konsole zu reduzieren, hat AWS nun die Konsole umgestaltet und personalisierbar gemacht.
Die neue Konsole besteht nun auf den allgemein bekannten „Widgets“. Jeder Benutzer kann sich selbst aussuchen, welche Widgets er in welcher Reihenfolge auf seinem Homescreen angezeigt bekommen möchte, sodass Security Engineers schneller einen Überblick über potenzielle Gefahren erhalten können und Developer leichter zu den von ihnen genutzten Services navigieren können.
Zu Release verfügt die Konsole über acht Widgets, wovon 3 statische Links und 5 dynamische Inhalte, wie beispielsweise AWS Health, den Trusted Advisor oder die zuletzt genutzten Services, anzeigen.
Die neue Konsole steht allen Nutzern der AWS Cloud in allen Regionen seit Januar 2022 kostenlos zur Verfügung.
Security
AWS GuardDuty
AWS GuardDuty ist ein Service, der es Usern erleichtern soll, versteckte Sicherheitslücken ausfindig zu machen und zu beheben. Der Service überwacht neben dem AWS Account des Nutzers selbst auch Workloads und gespeicherte Daten im AWS S3-Speicher.
Im Januar ist nun eine weitere Funktion von AWS GuardDuty hinzugekommen: Die Überwachung von Amazon EC2-Instanzen beziehungsweise die Überwachung der Credentials von EC2 Instanzen und ob diese von einem anderen AWS Account benutzt werden.
Amazon EC2 Credentials sind temporäre Zugangsdaten, die vom EC2 Metadatenservice automatisch bereitgestellt werden, wenn eine IAM-Rolle an eine EC2-Instanz gekoppelt ist. Sollte ein unbefugter Eindringling Zugriff zu diesen Metadatenservice erhalten, beispielsweise mittels Remote Code Execution, so könnte dieser die Credentials ebenfalls auslesen und nutzen und so beispielsweise Zugriff auf sensible Daten in Amazon S3, DynamoDB oder weitere Services erhalten.
GuardDuty konnte bereits seit Release erkennen, wenn solche Credentials von einer IP-Adresse außerhalb der IP-Ranges von AWS verwendet wurde, doch nun erkennt GuardDuty auch, wenn die Credentials innerhalb der AWS von einem anderen Account verwendet werden und alarmiert den User. Der Alarm wird als „Medium“ gekennzeichnet, wenn die Credentials von einem weiteren mit AWS GuardDuty verbundenem AWS Account verwendet werden – andernfalls als hoch. Sollten Nutzer einen Alarm erhalten, so empfiehlt es sich, die Instanz zu terminieren oder, wenn dies nicht möglich sein sollte, zumindest die Applikationen herunterzufahren. Da die Credentials nur zeitlich limitiert gültig sind und so keine neuen mehr erstellt werden, verhindert dies, dass der Angreifer neue Credentials auslesen kann, sobald die alten abgelaufen sind.
Dieses neue Feature von GuardDuty ist in allen Regionen seit Januar für Nutzer des Services kostenlos verfügbar.
AWS CloudTrail Lake
Im Januar gab AWS die allgemeine Verfügbarkeit von AWS CloudTrail Lake bekannt. AWS CloudTrail Lake ist ein Security Data Lake mit welchem Aktivitätsprotokolle für Prüfungen, Sicherheitsuntersuchungen und operative Fehler aggregiert, gespeichert und abgefragt werden können. Durch die Verbindung all dieser genannten Eigenschaften, vereinfacht CloudTrail Lake die Analyse von Aktivitätsprotokollen und macht die Notwendigkeit von separaten Datenverarbeitungspipelines überflüssig.
CloudTrail Lake stellt den Nutzern vordefinierte Beispielabfragen zu Verfügung, allerdings können Nutzer auch mittels SQL-artigem Syntax eigene Abfragen erstellen. Die standardmäßige Aufbewahrungsfrist von Logs, die in CloudTrail Lake gespeichert werden, beträgt sieben Jahre.
Der Service kann innerhalb der CloudTrail Konsole aktiviert werden mittels SDK oder der AWS CLI und ist in Europa unter anderem in Frankfurt, London und Paris verfügbar. Bei der Nutzung von CloudTrail Lake fallen Speicherkosten von ungefähr 2,5$/GB an. Abfragen auf die Daten werden mit 0,005$ pro gescanntem GB abgerechnet.
Storage
Amazon EFS
Das Elastic File System von AWS erlaubt es, EC2-Instanzen, Lambda-Funktionen und Containern auf ein gemeinsames fully-managed File System zuzugreifen.
Die Änderung im Januar bezieht sich auf die Erstellung von Replicas des File Systems, um beispielsweise Compliance Anforderungen zu erfüllen. Die Replicas können in wenigen Minuten von neuen oder bereits bestehenden EFS File Systemen erstellt werden und entweder innerhalb einer AWS Region oder auf mehreren AWS Regionen innerhalb einer Partition erstellt werden. Der hierbei entstehende Traffic wird über das Backbone von AWS geleitet, sodass Änderungen innerhalb kürzester Zeit übertragen werden können.
Sollte nun der Fall eintreten, dass ein Failover auf ein Replica eingeleitet werden muss, muss zunächst die Replizierung selbst beendet werden. Dies hat zur Folge, dass Replica nicht mehr als read-only markiert ist und in den Recovery Prozess als Backup integriert werden kann.
Die Replicas sind in Europa in Frankfurt, Irland, London, Paris und Stockholm verfügbar. Bei der Nutzung des neuen Features fallen sowohl Gebühren für das Speichern des Replicas als auch des des Originals an, sowie gegebenenfalls Kosten für den Cross- oder Intra-Regionalen Transfer der Daten.
Februar 2022
Eine Vielzahl der Neuerungen, die Amazon im Februar veröffentlicht hat, konzentrieren sich auf die Themen Security, Networking und Storage innerhalb der AWS. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Februar dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS PrivateLink, Amazon EFS und AWS S3 vorgestellt.
Security
AWS SSO
Mit AWS Single Sign-On verwalten Kunden der AWS Cloud den Zugriff von Mitarbeitern auf AWS-Konten und Anwendungen an einer zentralen Stelle.
Im Februar hat AWS die Anforderungen an den eigenen Sicherheits- und Datenschutzstandard mit SSO weiter erhöht und die Einhaltung zusätzlicher Sicherheitsrichtlinien, wie dem Payment Card Industry Data Security Standard (PCI DSS), erreicht. Diese Richtlinien sind für die Einhaltung diverser Anforderungen, wie beispielsweise der der International Organization for Standardization, notwendig.
Durch das Hinzufügen neuer Anforderungen an den eigenen Sicherheitsstandard, eröffnet Amazon seinen Kunden mehr Möglichkeiten, die Zugriffverwaltung für mehrere Konten und Anwender zu vereinfachen, ohne hierbei auf notwendige Sicherheitsmaßnahmen verzichten zu müssen.
AWS SSO wird in Europa unter anderen in den Regionen Frankfurt, London, Paris und Irland unterstützt. Die Kommunikation mit dem AWS-seitigem Endpunkt erfolgt ausschließlich über HTTPS.
AWS CodeGuru
Amazon CodeGuru Reviewer ist ein Tool für Entwickler, um Sicherheitslücken im Code zu entdecken und die Qualität des geschriebenen Codes zu verbessern. Bereits während der vergangenen re:invent wurde der neue Secrets Detector vorgestellt, der, zusammen mit dem AWS Secrets Manager, hardcoded Secrets im Code aufspürt und im Secrets Manager abspeichert. Im Februar wurde der Service um zwei weitere Fähigkeiten erweitert:
Zum einen wurde eine neue Detector Library hinzugefügt, welche detaillierte Informationen über die Sicherheits- und Codequalitätsdetektoren von CodeGuru Reviewer enthält. Jede Seite der Library enthält eine Beschreibung des jeweiligen Detektors, konforme und nicht-konforme Beispielcodes, sowie zusätzliche Informationen, die der Risikominimierung dienen. AWS verspricht sich davon, dass die neue Ressource den Kunden dabei hilft, ein tiefergehendes Verständnis für die Fähigkeiten und Möglichkeiten von CodeGuru Reviewer zu erlangen.
Als zweite Neuerung wurde ein neue Log-Injection Detektor angekündigt, der Java- und Python-Code auf potenziell unsichere Protokollierungsanweisungen, wie beispielsweise die, die während des Apache Log4j-Problems im Dezember des letzten Jahres ausgenutzt werden konnten, analysiert. Sollte der Reviewer eine solche Schwachstelle erkennen, so liefert er eine umsetzbare Empfehlung während der Repository Analyse oder als Kommentar während eines Pull-Requests.
Die Erweiterungen zu Amazon CodeGuru sind in allen Regionen verfügbar, in denen auch CodeGuru selbst verfügbar ist. Die Detector Library selbst ist als Teil der Dokumentation kostenfrei einsehbar.
Storage
Amazon EFS
Das Elastic File System (EFS) von AWS erlaubt es, dass EC2-Instanzen, Lambda-Funktionen und Container auf ein gemeinsames, fully-managed File System zugreifen können, welches das „read-after-write“ Konsistenzmodell unterstützt. Durch die flexible Skalierbarkeit und einfache Handhabung kommt AWS EFS in verschiedensten Szenarien zum Einsatz, wie beispielsweise der Verwaltung von Inhalten, DevOps oder auch Machine Learning.
Bis vor kurzem unterstützte AWS EFS beim Lesen von Daten und Metadaten lediglich eine Latenz von wenigen Millisekunden, doch getreu dem Motto „schneller ist immer besser“, unterstützt EFS seit Februar 2022 nun auch Sub-Millisecond Read Latency. Die meisten Lesevorgänge, die sowohl auf Daten als auch auf Metadaten ausgeführt werden, sollen nun nur noch eine Latenz von circa 600 Microsekunden aufweisen.
Die Verbesserung betrifft alle bestehenden und neuen One-Zone und General Purpose EFS-Systeme und wurde von AWS bereits umgesetzt, sodass Nutzer des Services die Verbesserung vielleicht schon bemerkt haben.
Amazon S3
Auch bei dem wahrscheinlich größtem und populärstem Speicherservice der AWS hat sich wieder etwas geändert: AWS S3 unterstützt nun die Replikation von bereits bestehenden Objekten mittels S3 Batch Replication sowie neue Checksum-Algorithmen.
Batch Replication
Amazon S3 Replication unterstützt bereits jetzt diverse Anwendungsfälle, wie beispielsweise die Verwaltung von Kopien von Daten über mehrere AWS Regionen hinweg, die Einhaltung von Anforderungen an die Datenhoheit oder einfach nur die Erstellung von zusätzlichen Sicherheiten für den Fall eines Datenverlustes innerhalb einer Region. Bisher unterstützte der Service aber nur die Replikation von neu-hinzugefügten Objekten . Dies ändert sich nun:
Es gibt eine Vielzahl von Gründen, wieso Kunden bereits existierende Objekte replizieren wollen. Einer hiervon könnte die bereits oben angesprochene zusätzliche Sicherheit im Falle eines Desasters in einer Region sein. Um dies bisher zu erreichen, mussten Kunden die bestehenden Daten manuell in die neuen Buckets übertragen. Durch diese manuelle Replikation sind allerdings Metadaten, wie beispielsweise das Erstellungsdatum oder die Versionsnummer, verloren gegangen.
Mit AWS S3 Batch Replication wird die manuelle Replikation von Daten nun obsolet und AWS-interne Metadaten können weiterverwendet werden. Das neue Feature unterstützt eine beliebige Anzahl von Objekten, die innerhalb eines Jobs repliziert werden können.
AWS S3 Batch Replication ist seit Februar in allen Regionen verfügbar. Die Kosten für die Nutzung des Features setzen sich aus Gebühren für den Datenverkehr, die Batchoperation selbst, die zusätzlich entstehende Speicherkosten sowie ggfls. Kosten für die Nutzung von AWS KMS zusammen.
Checksum
Der Cloudobjektdatenspeicher AWS S3 ist so designt, dass er eine Durability von mindestens 99,999999999% für Objekte und Metadaten unterstützt, die in den Speicher geladen werden. Dies hat zur Folge, dass man davon ausgehen kann, dass jeder PUT-Befehl, der auf den Speicher ausgeführt wird, mit einem GET-Befehl validiert werden kann und somit jedes hochgeladene Objekt auch wieder heruntergeladen.
AWS nutzt bereits jetzt Checksums, um die Anzahl von Objekten innerhalb eines Speichers zu validieren. So kann die PutObject-Funktion des S3-Services bereits jetzt mit MD5-Checksums kombiniert werden, um so Fehler bei der Datenübertragung frühzeitig zu erkennen und Operationen abzubrechen.
Seit Februar unterstützt AWS nun weitere Checksum-Algorithmen, die die Überprüfung der Integrität der Daten weiter vereinfachen sollen. Die Funktionsweise der neuen Algorithmen basieren auf vier Aspekten: Dem Upload der Datei, der Unterstützung von Multipart-Uploads, dem Summentest selbst, sowie der Rückgabe des Werts.
Die neueste Version der AWS SDK führt den Summentest selbstständig während es Uploads aus und fügt dessen Resultat an einen Trailer am Ende des Uploads hinzu. Im nächsten Schritt wird dieser Wert seitens des Services validiert und der Upload-Prozess beendet. Sollte der Upload als Multipart-Upload ausgeführt werden, so wird der Summentest für jede einzelne Komponente ausgeführt und validiert und auch die Summe der einzelnen Summentests wird noch einmal überprüft. Die Werte der Tests werden zusammen mit dem verwendeten Algorithmus in den Metadaten des Objekts gespeichert und bei der Nutzung von server-seitiger Verschlüsselung mittels AWS KMS sogar verschlüsselt.
Die neuen Checksum-Algorithmen sind in allen kommerziellen AWS Regionen seit Ende Februar 2022 kostenfrei verfügbar.
Networking
AWS Private Link
AWS PrivateLink bietet Nutzern die Möglichkeit, eine private Verbindung zwischen VPCs, AWS-Services und on-premises Netzwerken aufzubauen. Dadurch, dass der Verkehr nicht mehr über das öffentliche Internet gelenkt wird, sinkt die Anfälligkeit für Brute-Force oder DDoS-Angriffe. Durch die private IP-Konnektivität können Services so funktionieren, als würden sie in einem privaten Netzwerk liegen. Security Groups und Endpoint Policies erlauben die Zugriffssteuerung auf die darunterliegenden Services.
Durch die vielen Sicherheitsvorteile, die AWS PrivateLink bietet, ist es nicht verwunderlich, dass die Anzahl an Services, die von PrivateLink unterstützt werden, stetig steigt. Im Februar 2022 sind die Services Amazon ElastiCache, Amazon MemoryDB for Redis sowie Elemental MediaConnect hinzugekommen.
Zur Verwendung von PrivateLink mit einem der oben genannten Services muss lediglich ein Endpunkt unter Zuhilfenahme der Konsole, AWS SDK oder der CLI erstellt werden. Dieses Konstrukt kann wahlweise durch VPC Peering oder VPN-Konnektivität ergänzt werden, um von anderen VPCs aus auf den Endpunkt zuzugreifen.
AWS APP Runner
AWS APP Runner erlaubt es, schnell und einfach Webapplikationen und APIs in der AWS zu deployen. Für die Nutzung von APP Runner wird lediglich der Quellcode oder ein funktionierendes Container-Image benötigt. APP Runner übernimmt dann das Verwalten der Infrastruktur, des Networkings und des Load Balancings der Applikation.
Seit Februar können Applikationen, die über APP Runner gehostet werden, auch mit Services kommunizieren, die innerhalb eines VPCs liegen. So können über APP Runner gehostet Applikationen nun auf Amazon RDS, Redis oder Memcached Caches von ElastiCache, die im eigenen AWS VPC liegen, kommunizieren oder auf Ressourcen zugreifen, die über EC2-Instanzen zur Verfügung gestellt werden.
Um dies vorher zu erreichen, war es notwendig, dass die jeweiligen Applikationen und Datenbanken frei zugänglich im öffentlichen Internet liegen. Mit der neuen Änderung kann sich APP Runner nun mit Private Endpoints eines VPCs verbinden und ermöglicht so, eine sicherere Kommunikation mit diesen Ressourcen.
Zur Verbindung muss ein sogenannter VPC Konnektor innerhalb APP Runners erstellt werden. Innerhalb dieses Konnektors wird spezifiziert, welches VPC, welches Subnet und welche Security Group genutzt werden soll für die Kommunikation. Der aus APP Runner ausgehende Traffic wird dann anhand der definierten VPC Routing Regeln geleitet.
VPC Konnektoren sind seit Februar in allen AWS Regionen verfügbar, in denen auch AWS APP Runner verfügbar ist. Es fallen für die Nutzung keine zusätzlichen Kosten an, allerdings können ggfls. Gebühren für die Erstellung von NAT Gateways oder VPC Endpunkte entstehen.
März 2022
AWS hat nur wenige große Neuerungen im vergangenen März veröffentlicht. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats März dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS RDS, Amazon DynamoDB und AWS Lambda vorgestellt.
Monitoring und Security
AWS Health Dashboard
Im Laufe der Zeit hat Amazon immer mehr Tools veröffentlicht, um Einblicke in die Verfügbarkeit von Services zu vereinfachen. Bereits 2008 hat AWS beispielsweise das Service Health Dashboard erstmalig veröffentlicht. 2016 wurde dann eine personalisierbarere Variante des Service Health Dashboards veröffentlicht: Das Personal Health Dashboard. Diese wurde in den vergangenen 6 Jahren Konstant verbessert. Ein Beispiel hierfür ist die Integrierung in Amazon EventBridge oder die Möglichkeit, automatisch Benachrichtigungen zu erstellen. All dies galt allerdings nur für das PHD, nicht für das SHD, welches über die Jahre weitestgehend unverändert blieb.
Im März hat AWS nun ein Update für das SHD veröffentlicht, welches die Nutzerfreundlichkeit erhöht und das PHD und das SHD zusammenführt. Diese Zusammenführung ist das AWS Health Dashboard. Das AWS Health Dashboard soll ein zentrales Interface darstellen, in welchem generelle so wie personalisierte Ereignisse angezeigt werden.
Das neue AWS Health Dashboard ist bereits jetzt verfügbar und erzeugt keine weiteren Kosten. Die Zusammenführung des SHD und PHD ist ein sinnvoller Verbesserung, die das Monitoring von AWS Accounts und Organisationen vereinfacht. Im Laufe des Jahres sollen noch weitere Verbesserungen veröffentlich werden, über die wir – selbstverständlich – in dieser Blogbeitragsreihe berichten werden.
Cloud NGFW für AWS
Mit AWS Firewall Manager können Kunden die Sicherheitseinstellung für mehrere Applikationen, die über mehrere AWS Accounts hinweg gehostet sein können, zentral verwalten. Um dies zu ermöglichen, unterstützt Firewall Manager mehrere Arten von Firewalls, wie AWS WAF, Shield Advanced oder AWS Network Firewall .
Nun ist im März zu dieser Liste eine weitere Firewall hinzugekommen: Palo Alto Networks Cloud NGFW. Die Cloud Next Generation Firewall kann nun auch mittels Firewall Manager – über mehrere VPCs und AWS Accounts hinweg – verwaltet und überwacht werden.
Sowohl AWS Firewall Manager als auch Cloud NGFW sind regionale Services. Cloud NGFW ist bisher zwar nur in den Regionen in North Virginia und North California verfügbar, allerdings soll die Ausweitung auf weitere AWS Regionen bald folgen, sodass auch zukünftig in Europa ansässige Firmen von den Sicherheitsfeatures von Cloud NGFW und dem einfachen Management durch AWS Firewall Manager profitieren können.
Storage
AWS RDS
Multi-AZ Deployments sind einer der effizientesten Wege, um die Hochverfügbarkeit von Applikationen und Services zu garantieren und für jedes Unternehmen, insbesondere bei business-critical Workloads, von essenzieller Bedeutung. So ist es nicht verwunderlich, dass Amazon eine neue Art des Multi-AZ Deployments für Amazon RDS veröffentlicht hat. Die neue Deployment-Option verspricht Failovers in unter 35 Sekunden, lesbare Standby-Instanzen und eine halbierte Latenz bei der Replikation von Commits. In Summe stellt der neue Deployment-Typus also eine Mischung aus den bisherigen Multi-AZ Deployments und den bisherigen Read-Replicas dar.
Es ergeben sich aber durchaus weitere Vorteile für diese Art des Deployments: Multi-AZ Instanzen verwenden Amazon EBS, um die Daten zu speichern. Die neuen Multi-AZ DB Instanzen benutzen den lokalen Speicher der Instanz, um das Transaction-Log zu speichern und beschleunigen so das Schreiben von Daten, indem Operationen erst in das lokale Transaction-Log übernommen werden und dann auf den permanenten Speicher der Datenbank übergeben werden. Weiterhin sind die beiden Read-Replicas als sogenannte „Hot-Replicas“ zu verstehen, d.h. Applikationen können diese Instanzen aktiv nutzen, um ihre Select-Befehle auf ihr auszuführen, wodurch eine bessere Lastenverteilung möglich ist.
Um bisherige Installationen auf den neuen Deployment-Typ zu wechseln, müssen Nutzer einen Snapshot der aktuellen Datenbank erstellen. Aus diesem Snapshot kann dann eine neue Datenbank mit der gewünschten Konfiguration erstellt werden. In Europa sind die neuen Instanzen allerdings zunächst nur in Irland und in Kombination mit MySQL und PostgreSQL verfügbar. Weitere Regionen und Optionen sollen aber hinzukommen.
AWS DynamoDB
Amazon hat auch für DynamoDB im vergangenen März zwei neue Updates vorgestellt. Diese betreffen zum einen eine Erhöhung der Default-Quotas und zum anderen die SQL-kompatible Query-Sprache PartiQL, in welcher nun die Anzahl der verarbeiteten Elemente als Parameter bei jeder Abfrage mitgegeben werden kann.
Amazon DynamoDB hat das Standardkontigent an Tabellen pro AWS Account und Region von 256 auf 2500 Tabellen und die Anzahl an Verwaltungsvorgängen von 50 auf 500 erhöht. Dies erlaubt es, größere CRUD-Operationen auf Tabellen pro Konto pro Region durchzuführen und eliminiert die Notwendigkeit, DynamoDB-Tabellen verteilen zu müssen.
Beide Änderungen sind ab sofort in jeder Region, mit Ausnahme von GovCloud (USA), verfügbar, in welcher auch DynamoDB verfügbar ist.
Compute
AWS Lambda
Ein weitgeläufiges Grundverständnis von serverless Architekturen ist, dass die Compute Services event-gesteuert arbeiten und flüchtig sind, d.h. sie sie können nach Bedarf hoch- und runtergefahren werden. AWS Lambda ist ein Paradebeispiel dieses Grundgedankens. Allerdings kann der flüchtige Speicher des Services störend sein, wenn man beispielsweise große Daten verarbeiten möchte. Lambda-Funktionen verfügen zwar über einen Speicher von 512MB, allerdings ist dieser nicht immer ausreichend und nicht für das dauerhafte Speichern von Daten gedacht. Um dies zu erzielen, müssen bisher weitere Services wie AWS EFS hinzugezogen werden.
AWS Lambda dient heutzutage längst nicht mehr nur noch als Tool, um verschiedene Services miteinander zu verbinden, sondern wird unteranderem auch für die Verarbeitung und Erstellung von Daten verwendet. Diese Workloads benötigen allerdings einen performanten Speicher, um größere Datenmengen effizient verarbeiten oder cachen zu können. Die bisherige Limitierung von 512MB hatte zur Folge, dass die Verwendung von AWS Lambda in ETL-Prozessen oder bei der Erstellung von Daten zu einem Drahtseilakt bestehend aus „Wie viel kann ich auf einmal aus Amazon S3 Laden?“ und „wie hoch kann ich meinen Arbeitsspeicher hochskalieren?“ wurde.
Seit Mitte März erlaubt AWS nun seinen Kunden, die Größe des temporären Speichers zu skalieren. Nutzer des Services können nun darüber entscheiden, wie viel MB Speicher einer Lambda-Funktion zur Verfügung stehen sollen. Der Speicher kann bis zu 10240MB hochskaliert werden. Dies hat zur Folge, dass AWS Lambda zukünftig für ETL, ML oder andere speicherintensive Workloads noch interessanter wird, ohne auf einen weiteren Service wie AWS EFS zurückgreifen zu müssen.
Für weitere regelmäßige Updates zum Thema AWS Cloud, folgen Sie unserer Präsenz auf Xing und Instagram oder direkt unserem Blog.