ToiletPaper Icon 147

In-memory Caching für AWS Lambda leicht gemacht

Problem

Es ist bekannt, dass beim Aufruf einer AWS Lambda eine Runtime instanziiert wird, welche nach Bearbeitung der Anfrage nicht sofort wieder abgeräumt wird. AWS hält diese Runtime eine gewisse Zeit warm, um sie für spätere Aufrufe wiederverwenden zu können. AWS empfiehlt hier, die Execution Environment der Runtime zu nutzen, um die Lambda-Funktion performanter zu machen. Doch wie funktioniert das?

Lösung

Einfach gesagt, gibt es in einer Node.js Lambda nur die Handler-Funktion selbst und einen globalen JavaScript-Kontext. Bei jedem Aufruf der Lambda wird die Handler-Funktion ausgeführt – ein Caching innerhalb des Funktionskontext ist damit nicht möglich. Allerdings hat diese Funktion Zugriff auf den globalen Kontext. Darin lassen sich beliebige Variablen oder Objekte speichern. Ein Folgeaufruf hat Zugriff auf diese Daten, solange diese Runtime existiert. Kombiniert man dieses Verhalten mit einer Dependency-Injection-Lösung wie tsyringe, bekommt man Instanz-Caching für Datenbank/HTTP Clients quasi geschenkt. Zudem ist es sehr simpel, statische Konfigurationen im Speicher zu cachen.

Beispiel

Folgende 2 Varianten bietet tsyringe an, um die Instanz einer Dependency im globalen Kontext zu cachen. Für Klasseninstanzen eignet sich der singleton Decorator.
import { singleton } from "tsyringe";

@singleton()
class HttpClient {}
Wie der Name schon sagt, wird die Instanz dabei nur einmal erzeugt und dann im Dependency-Container vorgehalten. Für simple Objekte oder Dependencies, die mittels Factory erzeugt werden, eignet sich die Hilfsfunktion instanceCachingFactory.
import { container, instanceCachingFactory } from "tsyringe";

export interface CoffeeCache {
  configs?: CoffeeConfig[];
}

container.register("CoffeeCache", {
  useFactory: instanceCachingFactory<CoffeeCache>(() => ({
    /* "configs" key must be filled later */
  })),
});
Mit diesem Setup kann man sich z. B. durch ein container.resolve(HttpClient) die Instanz des Client heranziehen. Das geht überall im Code, somit auch innerhalb einer Handler-Funktion. Sobald man die Konfigurationen per HTTP abgerufen hat, kann man diese im CoffeeCache-Objekt speichern. Bei einem weiteren Aufruf der Lambda Funktion liegt die Konfigurationen bereits im Cache vor und man kann sich den HTTP-Request sparen.Innerhalb anderer Klassen können die Dependencies auch via Constructor Injection herangezogen werden.
import { inject } from "tsyringe";

class CoffeeHandler {
  constructor(@inject("CoffeeCache") cache: CoffeeCache) {}
}
Visual TP 147

Weiterführende Aspekte

---

Autor: Robert Gruner / Software Engineer / Standort Leipzig

Cookie-Einstellungen

Diese Website verwendet Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und Zugriffe auf die Website zu analysieren. Zudem werden Informationen zu Ihrer Verwendung der Website an Partner für soziale Medien, Werbung und Analysen weitergegeben. Die Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben.

Weitere Informationen finden Sie in unserer Datenschutzerklärung. Dort können Sie nachträglich auch Ihre Cookie-Einstellungen ändern.

contact icon

Kontakt aufnehmen