April 2021
In diesem Jahr steht der April in der AWS-Welt ganz im Zeichen der Verbesserung bestehender Services und Technologien. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats April dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerkt liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden im Versicherungs‑, Finanz- und Retailsektor ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS EC2, AWS SageMaker und AWS Redshift vorgestellt.
Data Warehousing
AWS Redshift
Die Migration von on-premises Datenbanken in die Cloud ist eine der größten Aufgaben und wichtigsten Themen der letzten Jahre und so verwundert es wenig, dass Amazon auch diesen Monat weitere Neuerungen von Redshift bekannt gegeben hat. Hierbei stechen insbesondere zwei Neuerungen heraus:
Die Unterstützung semi-strukturierter Daten
Seit diesem Monat steht die native Unterstützung von JSON und semi-strukturierten Daten den Nutzern von AWS Redshift nun zur Verfügung. Die semi-strukturierten Daten können mittels des neuen Datentypens „SUPER“ gespeichert und unter Verwendung von PartiQL abgefragt und analysiert werden. Das direkte Speichern und Abfragen von semi-strukturierten Daten innerhalb der Strukturen von Redshift vereinfacht ETL-Verarbeitungen im Allgemeinen, da nun keine externen Dienste mehr für das Parsing notwendig sind. Ein weiteres Featuren, das nun durch die Verwendung von PartiQL möglich ist, ist die dynamische Typisierung und Typ-Prüfungsfunktion, welche das explizite „Casten“ von Datentypen obsolet macht.
Dieses Update hilft Redshift, die Lücke zu Snowflake etwas zu schließen. Snowflake unterstützt schon seit längerem eine performante Verarbeitung von semi-strukturierten Daten wie JSON, XML oder Avro mittels nativer Funktionen und war somit in Fällen, in denen semi-strukturierte Daten verarbeitet werden sollten, Redshift überlegen. Noch immer fehlt Redshift der Support weiterer Datentypen wie beispielsweise XML, allerdings ist hier die Performance in Snowflake deutlich schlechter als bei der Verarbeitung von JSON, weswegen eine Konvertierung zu JSON meist ohnehin zu empfehlen ist.
Redshift AQUA
Um den steigenden Datenwachstum der letzten Jahre gerecht werden zu können, hat AWS hinsichtlich des Storage und der Performance desselbigen bereits einige Neuerungen getroffen, wie beispielsweise der Release der SSD-basierten RA3-Nodes belegt. Nun ist es allerdings so, dass die Verbesserungen im Bereich Storage die der CPU-Performance im Allgemeinen übertreffen. Das stetige Datenwachstum in Kombination mit einer lediglich endlichen Netzwerkgeschwindigkeit haben offengelegt, dass in einigen Fällen die Netzwerk– und CPU-Bandbreite ein limitierender Faktor sein können. Um dieses Problem zu lösen, hat AWS für die ra3.4xl und ra3.16xl Knoten nun AQUA veröffentlicht. AQUA funktioniert wie eine Art horizontal skalierter Compute-Layer unter dem eigentlichen Redshift-Cluster.
Subqueries, die Aggregationen und Scans auf dem eigentlichen Daten enthalten, werden an dieses Layer übertragen. Das Layer ist dann dafür verantwortlich, in parallelisierter Form diese Subqueries zu bearbeiten und die Ergebnisse an das Redshift-Cluster zur weiteren Prozessierung zu übergeben. Durch das parallelisierte initiale Scannen der Daten wird die zu übertragende Datenmenge reduziert und somit eine performantere Abfrage ermöglicht.
Konnektivität
FSx File Gateway
In den letzten Jahren wurden immer mehr Workloads in die Cloud migriert und profitieren dort von den günstigen Preisen, der flexiblen Skalierbarkeit und hohen Verfügbarkeit der Systeme. Viele lokale Anwendungen sind allerdings von niedrigen Latenzen abhängig, was bei einem direkten Zugriff auf Dateien in der Cloud nicht vollständig garantiert ist und somit zu Performance–Einbußen führen kann.
Aus diesem Grund hat AWS nun Amazon FSx File Gateway vorgestellt. Dies ist eine neue Art des bereits bekannten AWS Storage Gateways, welcher es Kunden ermöglicht, in der Cloud gespeicherte Daten mittels Amazon FSx for Windows File Server performant abzufragen. Der Service optimiert hierbei den lokalen Zugriff, indem es einen Cache für häufig abgerufene Daten anlegt und die Netzwerkverbindung optimiert. Dies hat zur Folge, dass die Latenz verringert wird und somit die oben beschrieben Workloads auch bei einem Zugriff auf Daten, die in einem Cloud-Datenspeicher abgelegt sind, performant laufen.
Machine Learning
AWS SageMaker – Saving Plans
So wie bisher in jedem Monat in diesem Jahr, gibt es auch im April wieder Neuerungen bei AWS SageMaker. Im Gegensatz zu vielen vorherigen Änderungen, wie beispielsweise die im Februar, betreffen die Änderungen in diesem Monat allerdings hauptsächlich den finanziellen Bereich der Nutzung von SageMaker.
Seit 2019 ist es schon möglich, im Bereich der „normalen“ Compute-Ressourcen ein Langzeit-Commitment mit AWS einzugehen, um die eigenen Compute-Kosten zu optimieren. Hierbei geht man einen ein– bzw. dreijährigen Vertrag mit AWS ein, in welchem eine gewisse Compute-Kapazität reserviert wird. Im Gegenzug verspricht Amazon eine Ersparnis von bis zu 72%. Diese Form des Saving Plans verspricht Amazon nun auch, neben einer allgemeinen Reduktion der Kosten für Compute-Instanzen der ml-Familie um 14,9%, für die Verwendung der Compute-Ressourcen des SageMaker-Services.
Amazon Timestream
AWS hat bekannt gegeben, dass nun die fully-managed Zeitreihendatenbank Amazon Timestream im Standort Frankfurt verfügbar ist. Die Daten, die in Amazon Timestream gespeichert werden, werden automatisch nach vom Benutzer definierten Richtlinien entweder im Speicher gehalten oder auf eine kostenoptimierte Speicherebene verschoben. So ist es zum Beispiel möglich, aktuelle Daten für ad-hoc Abfragen direkt zur Verfügung zu haben und ältere Zeitreihendaten, auf die auch nur seltener zugegriffen werden, kostengünstig abzulegen.
Die Analysefunktionen des Services bieten viele zeitreihenspezifische Funktionalitäten, mit denen es möglich ist, aktuelle Trends und Muster in den Daten zu identifizieren. Weiterhin lässt sich Timestream leicht in bereits bestehende Machine Learning Strukturen integrieren und zusammen mit bereits etablierten Services wie Kinesis oder SageMaker nutzen.
Cloud-Computing
EC2 – Serial Console
Eine der Hauptaufgaben im Bereich der System- und Netzwerkadministration ist das Beheben von Fehlern auf produktiven Systemen. Durch die steigende Komplexität dieser Systeme ist diese Aufgabe, trotz der Nutzung von Konstrukten wie Infrastructure as Code, noch anspruchsvoller geworden. Um das Troubleshooting von Boot und Netzwerk-Problemen zu erleichtern, hat AWS nun die EC2 Serial Console entwickelt, welche einen textbasierten Zugriff auf eine Instanz ermöglicht und so die Fehlersuche erleichtert. Die Nutzung dieser Konsole bietet sich besonders in Fällen an, in denen es nicht möglich ist, eine normale Verbindung über SSH oder RDP zu der jeweiligen Instanz aufzubauen
Die Serial Console ist verfügbar für alle EC2-Instanzen, die auf dem AWS Nitro System basieren und unterstützt alle größeren Linux Distributionen, FreeBSD, NetBSD, Windows und VMWare.
Mai 2021
Im Mai dieses Jahres stehen die Veränderungen in der AWS Cloud im Zeichen von Streaming, Machine-Learning und Containerisierung, um die sich abzeichnenden Trend der Branche auch weiterhin bedienen zu können. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats April dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden im Versicherungs‑, Finanz- und Retailsektor ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services AWS App Runner, AWS Kinesis Data Analytics Studio sowie AWS Redshift ML vorgestellt.
Streaming
Amazon Kinesis Data Analytics Studio
Für das Streaming von Daten in Echtzeit und Batchweise bietet AWS die Services AWS MSK und Amazon Kinesis an. Im Mai ist nun zu letzterem eine Erweiterung hinzugekommen: Amazon Kinesis Data Analytics Studio.
Mit diesem Service möchte Amazon die Verarbeitung und Analyse von Streaming Data noch weiter vereinfachen und erlaubt so die direkte Interaktion mit den Daten unter der Verwendung von SQL, Python oder Scala. Hierfür können Notebooks innerhalb der AWS Konsole erstellt und an eine Datenquelle angebunden werden. Die Notebooks verwenden die Technologien von Apache Zeppelin und Apache Flink, um eine interaktive Analyse der Streaming Data zu ermöglichen. Datenquellen können beispielsweise Amazon Kinesis oder auch AWS MSK sein, wobei für Letzteres auch seit neuestem die Kafka Versionen 2.8.0, 2.7.1 und 2.6.2 und die IAM Access Control verfügbar sind. Die Metadaten der jeweiligen Sources und Destinations können in einer AWS Glue Database angelegt und mittels des AWS Glue Data Catalogs abgerufen werden.
Der Preis des Services errechnet sich – neben den Kosten, die für Storage und Networking der Daten anfallen – aus der durchschnittlichen Anzahl der Kinesis Processing Units (KPU) pro Stunde, wobei eine KPU 1vCPU und 4GB RAM beinhaltet.
Neue APIs in Amazon Kinesis Data Analytics for Apache Flink
Eine weitere Neuigkeit aus dem Bereich Streaming und AWS Kinesis betrifft die Verfügbarkeit drei neuer APIs zur Anwendungsverwaltung in Amazon Kinesis Data Analytics for Apache Flink: Mit der RollbackApplication können nun Anwendungen auf die letzte funktionierende Version zurückgesetzt und der Anwendungsstatus aus einem Snapshot wiederhergestellt werden. Mit der ListApplicationVersion-API können nun alle Anwendungsversionen sowie eine Zusammenfassung der dazugehörigen Konfigurationen abgerufen werden und mit der DescribeApplicationVersion kann die Konfiguration einer bestimmten Version aufgerufen werden.
Machine Learning
AWS Redshift
Eine der interessantesten Änderungen im Bereich Machine Learning betrifft Amazon Redshift – etwas genauer gesagt Amazon Redshift ML.
Als Cloud Data Warehouse ermöglicht es Redshift eine nahezu beliebig große Menge an strukturierten und semi-strukturierten Daten mittels SQL-Befehlen abzufragen und zu kombinieren und mit der Einführung von AQUA im letzten Monat ist dies sogar noch bedeutend schneller möglich als zuvor. AWS geht diesen Monat noch einen Schritt weiter und veröffentlich Amazon Redshift ML. Mit dieser Erweiterung ist es nun möglich, Machine Learning Modelle innerhalb der Strukturen von Redshift mittels simplen SQL zu entwickeln.
Mit der Query werden sowohl die Daten angegeben, mit welchen das Model trainiert werden soll, als auch ein Output-Value definiert. Zur Veranschaulichung der Funktionsweise hier ein Beispiel aus dem Retail-Sektor: Angenommen es soll ein Modell entwickelt werden, mit welchem vorhergesagt werden kann, ob ein Kunde in näherer Zukunft seinen Vertrag kündigen möchte. Für ein solches Projekt war es bisher notwendig, die Daten aus Redshift in den S3 Storage zu exportieren, um von dort aus zum Beispiel mit SageMaker einen Machine Learning Prozess aufzusetzen. Nun ist es so, dass einfach die Spalten aus der Datenbank mit den notwendigen Kundendaten mittels SQL-Query abgefragt und verwendet werden können.
Betrachtet man diesen neuen Service etwas detaillierter, so sieht man, dass der früher manuelle Kopierschritt der Daten in den S3 Bucket nun automatisch geschieht. In der Tat ist es so, dass nach der Erstellung eines Modells die ausgewählten Daten automatisch aus Redshift heraus in einen S3-Bucket übertragen und dort mittels Amazon SageMaker Autopilot vorbereitet und verarbeitet werden. Nachdem das Modell erstellt und trainiert worden ist, wird es anschließend von Redshift ML unter Verwendung von Amazon SageMaker Neo optimiert und schlussendlich als SQL-Funktion zur Verfügung gestellt.
Mit Redshift ML ist es allerdings nicht nur möglich, neue Modelle zu erstellen, sondern auch bereits bestehende Modelle und Endpunkte aus SageMaker zu importieren und zu verwenden. Verfügbar ist der Service in nahezu allen größeren AWS Regionen, inklusive Frankfurt.
Weiteres aus dem Bereich Machine Learning
Auch andere Services in diesem Segment haben einige Verbesserungen erfahren – so zum Beispiel Amazon Recognition.
Amazon Recognition ist ein Machine Learning gestützter Service zur Erkennung von Objekten, Konstruktionen, Personen, Gesichter oder Text in Bild- und Videodateien. Für Letzteres gab es nun ein Update seitens Amazons: Amazon Recognition kann nun, mit einer höheren Präzision und einer um bis zu 70% verringerten Latenz, Texte erkennen, die bis zu 100 Wörter lang sind.
Eine weitere Neuigkeit aus dem Bereich Machine Learning betrifft Amazon Forecast. Mit Amazon Forecast können Bedarfsprognosen ohne vorherige Machine Learning Erfahrungen erstellt werden. Aufgrund der früheren Limitierung der CreatePredictor API waren Kunden allerdings darauf beschränkt, Prognosen für maximal eine Millionen Einzelartikel erstellen zu können. Dies hatte zur Folge, dass Kunden, die mehr als eine Millionen Einzelartikel hatten, sich entweder auf eine Teilmenge ihrer Artikel beschränken oder separate Modelle für ausgewählte Kategorien oder eine ähnliche Gruppierung erstellen mussten. Die oben angesprochenen Limitierungen der CreatePredictor API sind nun allerdings aufgehoben beziehungsweise erhöht worden, sodass Prognosen statt für eine Million Artikel für fünf Millionen erstellt werden können.
Cloud-Computing
Lambda Extensions
Bereits im Oktober des vergangenen Jahres hat AWS Erweiterungen für AWS Lambda vorgestellt, um eine einfache Integration von Lambda Funktionen in bestehende Monitoring‑, Observability- und Security-Tools zu ermöglichen. Diese Erweiterungen sind nun im Mai veröffentlicht worden und nutzen die Runtime Extensions API von AWS Lambda, wodurch sie mit dem vollen Lebenszyklus einer Lambda-Funktion verknüpft sind. Dies legt auch bereits einige Anwendungsmöglichkeiten der Extensions offen, wie zum Beispiel das Sammeln von diagnostischen Informationen eines Systems vor, während und nach dem Aufrufen einer Funktion oder dem Senden eines Logs an einen beliebigen Zielort – wie AWS S3, Kinesis oder Elasticsearch – über die AWS Runtime Logs API. Da die Erweiterungen sich die Compute-Ressourcen mit der eigentlichen Lambda Funktion teilen, kann die Verwendung im Allgemeine allerdings zu einer Verschlechterung der Performance führen.
Die Lambda Extensions sind bisher in Europa nur in den Regionen Irland und Mailand verfügbar, sollen aber auch demnächst in Frankfurt nutzbar sein und besitzen dasselbe Kostenmodell, wie AWS Lambda selbst, d.h. es entstehen auch hier Kosten in Abhängigkeit zur Laufzeit der Funktion.
Container
AWS App Runner
Die Containerisierung von Applikationen bringt viele Vorteile mit sich, wie zum Beispiel eine effizientere Nutzung von Ressourcen und ein höheres Maß an Portabilität von Anwendungen. Insbesondere in modernen Cloud-Architekturen, in denen vermehrt auf Microservices gesetzt wird, sind containerisierte Anwendungen oftmals vertreten und kaum zu ersetzen.
Mit AWS App Runner steht nun auch ein weiterer Container-Anwendungsservice in der AWS Cloud bereit. Es handelt sich hierbei um einen fully managed Service, der es insbesondere Kunden ohne Containererfahrungen ermöglichen soll, Webanwendungen und APIs in containerisierter Form zu erstellen, bereitzustellen und auszuführen. Es genügt hierbei, dem Service den jeweiligen Quellcode oder das Image eines Containers zur Verfügung zu stellen. AWS App Runner erstellt dann automatisch eine Webanwendungen und stellt diese inklusive Load Balancing, Skalierung und Monitoring des Systems bereit und eliminiert so für Kunden die Notwendigkeit, selbst einen Containerorchestrierungsservice zu verwalten. Durch diese Funktionalität kann App Runner eine Alternative zu Architekturen, welche den Elastic Container Service von Amazon nutzen, darstellen. Unterstützt wird AWS App Runner auch bereits von der neuesten Version von AWS Copilot sowie von dem Service AWS App2Container, welcher es erlaubt, .NET und Java-Anwendungen in eine containerisierte Anwendung zu konvertieren.
Juni 2021
Viele Änderungen des Monats Junis sind besonders für Entwickler in der AWS interessant. Dieser Blogbeitrag stellt einen Ausschnitt aus den Neuerungen und Ankündigungen des Monats Juni dar, erhebt aber nicht den Anspruch auf Vollständigkeit. Das Hauptaugenmerk liegt hierbei auf Veränderungen, bei denen wir von einem direkten Einfluss auf unsere Kunden ausgehen. In diesem Beitrag werden insbesondere Änderungen und Ankündigungen der Services Amazon EMR, Amazon Athena, AWS SageMaker Data Wrangler sowie AWS CodeGuru und Amazon DevOps Monitoring vorgestellt.
Compute
Amazon EMR on EKS
Während der vergangenen re:Invent hat AWS bereits die Verfügbarkeit von Amazon EMR auf Amazon Elastic Kubernetes Service (EKS) angekündigt und bietet so die Möglichkeit, zur automatischen Bereitstellung von Apache Spark auf Amazon EKS. Die Verfügbarkeit von Apache Spark auf Kubernetes innerhalb der AWS Cloud bietet die Möglichkeit zur einfachen Migration bereits bestehender Spark-Anwendungen, die auf Kubernetes basieren, in die AWS beziehungsweise auf ein EKS-Cluster in welchem bereits andere Applikationen liegen, um dort von den geteilten Ressourcen zu profitieren und die Infrastruktur zu vereinfachen. Des Weiteren bietet eine solche Migration die Möglichkeit, die Applikationen in Amazon EMR Studio oder AWS Step Functions, welche im Laufe des Artikels noch einmal aufgegriffen werden, zu integrieren.
Bei der Übertragung eines Jobs wird die Applikation automatisch von EMR in einen Container verpackt und auf einem EKS Cluster bereitgestellt und ausgeführt. Bisher war es so, dass Abhängigkeiten währen der Übertragung des Jobs automatisch hinzugefügt wurden. Dies ändert sich jetzt und es ist nun möglich, auch personalisierte Images mit Amazon EMR auf EKS zu verwenden, d.h. es können Images erstellt werden, die sowohl die tatsächliche Applikation als auch deren Abhängigkeiten bereits beinhalten. Durch diese Änderung kann die Erstellung eines Images in den Continuous Integration Prozess integriert werden. Data Engineers können so beispielsweise ein Basis-Image bereitstelle, Bibliotheken hinzufügen und das Image dann im Elastic Container Registry (ECR) von AWS zur Verfügung stellen. Nutzer, wie beispielsweise Data Scientisten, könne auf dieses Image dann zurückgreifen, die notwendigen Abhängigkeiten für die jeweilige Applikation mittels Dockerfile hinzufügen und Spark Jobs unter Verwendung des personalisierten Images ausführen.
Amazon EC2
Zum 11.06.2021 hat AWS die Abrechnung für Windows-Server sowie SQL-Server-Instanzen abgeändert. Alle Instanzen dieser Art, die als On-Demand‑, Reserved- oder Spot-Instance erstellt wurden, werden nun, so wie es bereits für die Linux- und Ubuntu-Instanzen seit längerem der Fall ist, sekündlich abgerechnet mit einem minimalen Abrechnungsintervall von einer Minute. Die neue Art der Abrechnung ist sowohl für neue als auch bereits bestehende Instanzen verfügbar.
Machine Learning
Amazon Athena
Im laufe des Monats Juni hat Amazon die allgemeine Verfügbarkeit der zweiten Version der Amazon Athena Engine für alle kommerziellen AWS Regionen bekannt gegeben, in denen zuvor auch die Version 1 verfügbar war.
Amazon Athena ist ein interaktiver Abfrageservices, welcher die Analyse von Daten, die in einem S3-Bucket liegen, erlaubt. Dies erlaubt es beispielsweise, erste Exploration der vorhandenen Datensätze mittels SQL-Abfrage durchzuführen, bevor diese in ein Data Warehouse wie Snowflake oder Redshift geladen werden. Zu den neuen Funktionen der Version 2 zählen unter anderem die sogenannten „Federated Queries“, welche es unter Verwendung zusätzlicher Konnektoren erlaubt, weitere Datenquellen abzufragen – unabhängig davon, ob diese in der Cloud oder on-premises liegt. Weiterhin ist es nun möglich UDFs zu hinterlegen, um so zum Beispiel Daten dynamisch zu maskieren und dadurch sensible Daten vor unautorisierten Zugriffen zu sichern oder weitere AWS Services in die Abfrage zu integrieren, wie beispielsweise AWS Translate, um Daten zu übersetzen.
Neben den hinzugekommenen Funktionen, sind auch die Abfragefunktionalitäten von AWS Athena verbessert worden. Unter anderem wurde das Gruppieren von Daten verbessert und somit Abfragezeiten reduziert, sowie die Einführung von Cross Joins vorgenommen. Eine vollständige Liste aller Verbesserungen finden Sie hier.
SageMaker Data Wrangler
Für Machine Learning ist die Aufbereitung und Zusammenführung von Daten eine notwendige Vorarbeit, die in der AWS mit dem Service SageMaker Data Wrangler für unterschiedlichste Datenquellen bereits ausgeführt werden kann. Seit vergangenem Monat ist dies nun auch in Kombination mit dem Cloud Data Warehouse Snowflake möglich, d.h. die Daten können nun über SageMaker Data Wrangler aufbereitet und beispielsweise mit Daten aus S3 oder Redshift angereichert werden. Weiterhin können vorgefertigte Transformationen über den Service auf den Daten ausgeführt werden und mittels der Visualisierungsmöglichkeiten von SageMaker Data Wrangler Datensätze auf Extrema und potenzielle Fehlerquellen untersucht werden.
ETL und Streaming
AWS Glue Studio
Für das AWS eigene ETL-Tool mit grafischer Oberfläche sind im Juni zwei interessante Änderungen vorgestellt worden. Diese sind die Verfügbarkeit eines Code-Editors, sowie die Möglichkeit, Einstellungen für Streaming-Jobs innerhalb des visuellen Interfaces festzulegen. Bei den Einstellungen für die Streaming-Jobs ist es nun möglich, Eigenschaften wie die Fenstergröße, Schemaerkennung sowie Verbindungseinstellungen manuell über die Oberfläche des Services festzulegen.
Der neu eingeführte Code-Editor erlaubt es, die aus den im grafischen Interface generierten ETL-Codes innerhalb des Studios manuell zu bearbeiten und erleichtert somit das Editieren von Jobs. Zuvor war es notwendig, die Dateien zunächst auf das lokale System herunterzuladen und dort dann zu verändern.
AWS Step Functions Workflow Studio
AWS Step Functions ist einer der Schlüssel-Services, um Workflows in der AWS zu erstellen und so zum Beispiel die Ausführung von serverless Services wie AWS Lambda zu orchestrieren. Zur Erstellung eines solchen Workflows, musste bisher eine JSON-Datei unter Verwendung der Amazon State Language erstellt werden, in welcher die Reihenfolge sowie die Eigenschaften der einzelnen Schritte definiert werden musste.
Zur Vereinfachung der Erstellung solcher Workflows hat AWS nun das Workflow Studio veröffentlicht, in welchem innerhalb einer grafischen Oberfläche, unter Anleitung von Amazon, Workflows erstellt werden können. Durch die Einführung einer grafischen Oberfläche zur Erstellung der Step Functions wird nun neuen Nutzern die Notwendigkeit abgenommen, die Amazon State Language zu lernen, und im Allgemeinen können Nutzer nun Workflows schneller erstellen.
Development
AWS CodeGuru
Durch die Automatisierung von Prozessen und die Migration von Architekturen in die Cloud, ist die Anzahl an Codezeilen innerhalb von Unternehmen rapide gestiegen. Allein durch die schiere Masse an Codezeilen ist deren Review ein komplexes und zeitaufwändiges Unterfangen, welches aber unumgänglich und notwendig ist.
Amazon CodeGuru bietet automatische Code Reviews an und unterstützt Java sowie Python Entwickler, die Qualität ihres Codes zu erhöhen oder hochzuhalten. Nun ist es möglich eine solche automatische Code Review innerhalb des normalen CI/CD-Vorgangs mittels GitHub Actions zu integrieren.
Als Entwickler ist es üblich, jeden Tag neuen Code zu pushen und zu pullen und Sicherheitslücken und Bugs sollten möglichst früh erkannt und ausgebessert werden, um spätere Nacharbeiten zu minimieren. CodeGuru unterstützt bei dieser zumeist anspruchsvollen Aufgabe und gibt Verbesserungsvorschläge während jeder Pull-Request als Kommentar und während jedes Pushes als Anmerkung im Security Bereich von GitHub aus. Zudem wurde zur weiteren Verbesserung des Services neue Java Detektoren eingeführt, die den Service hinsichtlich seiner Funktionalitäten zur Aufdeckung von Sicherheitslücken weiter verbessert.
AWS DevOps Monitoring
Ein wichtiger Teil im Bereich des DevOps ist das Monitoring der Lösung und des Prozesses. Um das Monitoring des Entwicklungsprozesses zu vereinfachen und Aktivitäten zu messen, hat Amazon AWS DevOps Monitoring entwickelt.
Bei der Entwicklung mit AWS Tools erstellt jeder Entwickler eigenen Metriken, welche AWS DevOps Monitoring sammelt, analysiert und in einem zentralen Dashboard visualisiert, sodass Informationen wie die Change-Failure-Rate oder die Deployment-Frequency schnell einsehbar sind. Mit der neuen Version werden nun auch die Services AWS CodeBuild sowie AWS CodePipeline unterstützt, sodass nun auch die Anzahl an ausgelösten Builds, sowie Ausführungsdauer und ‑häufigkeiten überwacht und visualisiert werden können.
Storage
Amazon FSx for Windows File Server
Der Service Amazon FSx for Windows File Server ist ein fully managed Objektdatenspeicher, welcher über das Server-Message-Block-Protokoll abgefragt werden kann und auf Windows Server aufsetzt. Zu den bisher verfügbaren Features, wie beispielsweise der Möglichkeit, Dateien durch Endnutzer wiederherzustellen oder der Integration in Microsofts Active Directory, ist nun auch das Auditing von Zugriffen von Endnutzern auf Dateien, Ordner und Shares mittels der Windows Eventlogs hinzugekommen.
Die mittels File Access Auditing erstellten Logs können dann an einen AWS Service übergeben und weiterverarbeitet oder gespeichert werden. So können diese Logs beispielsweise mit den Amazon CloudWatch Logs kombiniert werden, um ein zentrales Monitoring und Auditing zu ermöglichen. Des Weiteren birgt dies die Möglichkeit, die Logs aus CloudWatch Logs zu exportieren und in S3 zur weiteren Nutzung zu speichern oder mittels Lambda Funktion auf bestimmte Events agil zu reagieren, um so beispielsweise in real-time auf unautorisierte Zugriffe hinzuweisen.
Das File Access Auditing steht kostenfrei bei der Verwendung von Amazon FSx for Windows File Server zur Verfügung und kann von allen neuen Filesysteme genutzt werden.
Amazon DynamoDB Accelerator
Amazon DynanoDB Accelerator ist ein fully managed in-memory Cache zur Verbesserung der Performance von Amazon DynamoDB und die Abfragezeiten drastisch reduzieren kann. Seit Juni ist es nun möglich, Daten während ihrer Übertragung von einer Anwendung zu DynamoDB Accelerator sowie zwischen den Knoten des Accelerators zu verschlüsseln und somit die Sicherheit der Daten in-transit zu erhöhen. Die Verschlüsslung erfolgt mittels Transport Layer Security (TLS) und Verbindungen zum Cluster werden mittels Zertifikats authentifiziert.
Die Verschlüsselung kann entweder in der DynamoDB-Konsole, über die CLI, SDK oder CloudFormation aktiviert werden und ist in Europa in Frankfurt, Irland, London und Paris verfügbar.
Für weitere regelmäßige Updates zum Thema AWS Cloud, folgen Sie unserer Präsenz auf Xing und Instagram oder direkt unserem Blog.