Mehr dazu

Eine Plattform für Alarmierung, Rufbereitschaften und Status­seiten.

Managen Sie Rufbereitschaften, reagieren Sie auf Vorfälle und kommunizieren Sie diese über Statusseiten mit einer Software.

Führende Unternehmen vertrauen uns

Highlights

Die Funktionen, die Sie für den Betrieb von Always-On-Services benötigen

Jede Funktion in ilert wurde entwickelt, um Ihnen zu helfen, schneller auf Vorfälle zu reagieren und die Verfügbarkeit zu erhöhen.

Features entdecken

Nutzen Sie das Potenzial generativer AI

Verbessern Sie die Kommunikation bei Vorfällen und optimieren Sie die Erstellung von Postmortems mit ilert AI. ilert AI unterstützt Ihr Unternehmen dabei, schneller auf Vorfälle zu reagieren.

Read more
Integrationen

Starten Sie sofort mit unseren Integrationen

ilert stellt mithilfe unserer vorgefertigten Integrationen oder per E-Mail eine nahtlose Verbindung zu Ihren Tools her. Ilert lässt sich in Überwachungs-, Ticketing-, Chat- und Kollaborationstools integrieren.

Sind Sie bereit, Ihr Incident-Management zu verbessern?
Kostenlos starten
Kundenstimmen

Was andere über uns sagen

Wir haben unseren Incident-Management-Prozess mit ilert transformiert. Unsere Plattform ist intuitiv, zuverlässig und hat die Reaktionszeit unseres Teams erheblich verbessert.

ilert is a low maintenance solution, it simply delivers [...] as a result, the mental load has gone.

Tim Dauer
VP Tech

We even recommend ilert to our own customers.

Maximilian Krieg
Leader Of Managed Network & Security

We are using ilert to fix our problems sooner than our customers are realizing them. ilert gives our engineering and operations teams the confidence that we will react in time.

Dr. Robert Zores
Chief Technology Officer

ilert has proven to be a reliable and stable solution. Support for the very minor issues that occured within seven years has been outstanding and more than 7,000 incidents have been handled via ilert.

Stefan Hierlmeier
Service Delivery Manager

The overall experience is actually absolutely great and I'm very happy that we decided to use this product and your services.

Timo Manuel Junge
Head Of Microsoft Systems & Services

The easy integration of alert sources and the reliability of the alerts convinced us. The app offers our employee an easy way to respond to incidents.

Stephan Mund
ASP Manager
Bleiben Sie auf dem Laufenden

Neues aus unserem Blog

Insights

6 Schritte zur Erstellung umsetzbarer Postmortems

ilert feature Best Practices für die Erstellung effektiver Postmortem, damit die Analyse eines Vorfalls nicht in Vergessenheit gerät, sobald die Gefahr vorüber ist: Postmortem eines Vorfalls erstellen

Daria Yankevich
Jun 17, 2024 • 5 min read

In den Bereichen DevOps und IT-Betrieb ist die Durchführung eines gründlichen Postmortem nach einem Vorfall entscheidend für die kontinuierliche Verbesserung. Dieser Artikel befasst sich mit Best Practices für die Erstellung effektiver Postmortems, die sicherstellen, dass Ihre Vorfallsanalyse nicht in Vergessenheit gerät, sobald die Gefahr vorüber ist, sondern dass sie umfassend und umsetzbar ist.

Was ist ein Postmortem?

Ein Postmortem in DevOps ist ein strukturierter Prozess, der nach einem Vorfall oder Ausfall durchgeführt wird, um zu analysieren, was passiert ist, die Grundursache zu identifizieren und Korrekturmaßnahmen zu implementieren, um zukünftige Vorfälle zu verhindern. Er umfasst eine detaillierte Untersuchung des Zeitablaufs, eine Bewertung der Auswirkungen und der gewonnenen Erkenntnisse und fördert eine Kultur der kontinuierlichen Verbesserung und Transparenz, ohne Schuldzuweisungen vorzunehmen. Das Postmortem-Dokument ist das Endergebnis dieses Prozesses und fasst alle gesammelten Informationen, Analysen und geplanten Maßnahmen zusammen, um sie mit den relevanten Interessengruppen zu teilen.

Vorteile der Durchführung von Postmortems

Durch die Förderung einer Kultur des Lernens und der Verbesserung durch Postmortems können Unternehmen ihre Infrastruktur und ihre Prozesse zur Reaktion auf Vorfälle stärken und sind so besser auf zukünftige Vorfälle vorbereitet. Zu den Vorteilen der Durchführung von Postmortems gehören:

  • Verbesserte Wiederherstellungszeiten.
  • Verbessertes Lernen im Team und Wissensaustausch.
  • Vorbeugung gegen künftige Vorfälle.
  • Aufbau einer Kultur der kontinuierlichen Verbesserung.

ilert interface: Postmortem direkt aus dem Vorfall erstellen
ilert interface: Postmortem direkt aus dem Vorfall erstellen

Postmortem-Schlüsselschritte

Wie im Incident Management Guide von ilert empfohlen, benennt der Leiter der Vorfallsbekämpfung nach der Behebung eines größeren Vorfalls schnell einen der Responder, der den Postmortem-Prozess leitet. 

Schritt 1: Zuweisung eines Postmortem-Eigentümers

Da die Erstellung des Postmortem eine gemeinschaftliche Aufgabe ist, ist die Zuweisung eines bestimmten Eigentümers unerlässlich, um sicherzustellen, dass sie effektiv durchgeführt wird. Der Postmortem-Verantwortliche ist mit mehreren Aufgaben betraut, darunter:

  • Terminierung der Postmortem-Sitzung
  • Untersuchung des Vorfalls (ggf. unter Hinzuziehung des erforderlichen Fachwissens aus anderen Teams)
  • Aktualisierung des Postmortem-Dokuments
  • Erstellung von Folgemaßnahmen zur Vermeidung ähnlicher Vorfälle in der Zukunft.

Schritt 2: Planen Sie ein Treffen

Es ist von entscheidender Bedeutung, Personen mit einschlägiger Erfahrung und Fachkenntnissen einzuladen. Wir empfehlen Ihnen daher dringend, die folgenden Spezialisten einzuladen: 

  • Der Leiter der Vorfallsreaktion
  • Eigentümer der am Vorfall beteiligten Dienste
  • Wichtige Techniker/Referenten, die an der Behebung des Vorfalls beteiligt waren
  • Technik- und Produktmanager für die betroffenen Systeme

Schritt 3: Erstellen Sie einen Zeitplan

Zeitleiste des Vorfalls von ilert
Zeitleiste des Vorfalls von ilert

Dokumentieren Sie die Abfolge der Ereignisse objektiv, ohne die Ursachen des Vorfalls zu interpretieren oder zu beurteilen. Der Zeitplan sollte vor dem Beginn des Vorfalls beginnen und bis zu seiner Behebung fortgesetzt werden, wobei wesentliche Änderungen des Status oder der Auswirkungen sowie die wichtigsten von den Beteiligten ergriffenen Maßnahmen festgehalten werden.

Untersuchen Sie das Ereignisprotokoll in Slack oder Microsoft Teams auf kritische Entscheidungen und Maßnahmen. Nehmen Sie auch Informationen auf, die dem Team während des Vorfalls fehlten, aber im Nachhinein hilfreich gewesen wären. Diese Informationen können in den Überwachungsdaten, Protokollen und Bereitstellungen der betroffenen Dienste zu finden sein.

Schritt 4: Dokumentieren der Auswirkungen

Erfassen Sie die Auswirkungen des Vorfalls aus verschiedenen Blickwinkeln. Notieren Sie die Dauer der beobachtbaren Auswirkung, die Gesamtzahl der betroffenen Kunden, die Anzahl der gemeldeten Probleme und den Schweregrad der Funktionsunterbrechung. Messen Sie die Auswirkungen anhand einer für Ihr Produkt relevanten Geschäftskennzahl, z. B. der Zunahme von API-Fehlern, Leistungseinbußen oder Verzögerungen bei der Zustellung von Benachrichtigungen. Stellen Sie gegebenenfalls eine Liste aller betroffenen Kunden zusammen und teilen Sie diese Ihrem Support-Team für Folgemaßnahmen mit. Die Aufnahme von Kundenfeedback oder Beschwerden, die während des Vorfalls eingegangen sind, ist ebenfalls hilfreich und gibt Aufschluss über die Benutzererfahrung.

Schritt 5: Analyse der Grundursache

Nachdem Sie den zeitlichen Ablauf und die Auswirkungen des Vorfalls gründlich verstanden haben, gehen Sie zur Ursachenanalyse über, um die dazu beitragenden Faktoren zu untersuchen, wobei Sie sich bewusst sind, dass komplexe Systeme häufig aufgrund einer Kombination von zusammenwirkenden Elementen und nicht aufgrund einer einzigen Ursache ausfallen. Beginnen Sie mit der Überprüfung der Überwachungsdaten der betroffenen Dienste und suchen Sie nach Unregelmäßigkeiten wie plötzlichen Spitzen oder Einbrüchen zum Zeitpunkt des Vorfalls. Fügen Sie relevante Abfragen, Befehle, Diagramme oder Links von Überwachungstools ein, um den Prozess der Datenerfassung zu veranschaulichen. Wenn es keine Überwachung für diesen Dienst gibt, führen Sie die Entwicklung einer solchen Überwachung als Aktionspunkt in Ihrem Postmortem auf. Als Nächstes sollten Sie die zugrundeliegenden Ursachen ermitteln, indem Sie untersuchen, warum das Systemdesign den Vorfall zuließ, indem Sie frühere Designentscheidungen untersuchen und indem Sie feststellen, ob sie Teil eines größeren Trends oder eines spezifischen Problems waren. Bewerten Sie die Prozesse und prüfen Sie, ob Zusammenarbeit, Kommunikation und Arbeitsüberprüfungen zu dem Vorfall beigetragen haben, und nutzen Sie diese Phase, um den Reaktionsprozess auf den Vorfall zu verbessern. Fassen Sie Ihre Ergebnisse im Postmortem zusammen und sorgen Sie für eine gründliche Dokumentation, um eine produktive Diskussion während des Postmortem-Meetings zu ermöglichen, und bleiben Sie gleichzeitig offen für zusätzliche Erkenntnisse, die sich ergeben könnten.

Postmortem-Erstellung mit ilert AI
Postmortem-Erstellung mit ilert AI

Schritt 6: Aktionspunkte vorbereiten

Jetzt ist es von entscheidender Bedeutung, Schritte zur Vermeidung ähnlicher Probleme in der Zukunft festzulegen. Auch wenn es nicht immer möglich ist, solche Vorfälle völlig auszuschließen, sollten Sie sich darauf konzentrieren, die Erkennungs- und Abhilfemaßnahmen für zukünftige Ereignisse zu verbessern. Dazu gehören die Verbesserung der Überwachungs- und Warnsysteme und die Entwicklung von Strategien zur Verringerung des Schweregrads oder der Dauer von Zwischenfällen.

Erstellen Sie Tickets für alle vorgeschlagenen Maßnahmen in Ihrem Aufgabenmanagement-Tool und stellen Sie sicher, dass jedes Ticket ausreichend Kontext und eine vorgeschlagene Richtung enthält. Dies hilft dem Produktverantwortlichen bei der Priorisierung der Aufgabe und ermöglicht es dem Beauftragten, sie effizient auszuführen. Jeder Aktionspunkt sollte spezifisch und umsetzbar sein.

Wenn vorgeschlagene Maßnahmen weitere Diskussionen erfordern, sollten sie auf die Tagesordnung der Postmortem-Sitzung gesetzt werden. Dabei kann es sich um Vorschläge handeln, die vom Team validiert oder geklärt werden müssen. Die Erörterung dieser Punkte in der Sitzung wird dazu beitragen, die beste Vorgehensweise zu bestimmen.

Insights

KI-gestützte Incident Management-Kommunikation

Erfahren Sie, wie Sie mithilfe von KI-gestützte Incident Management-Kommunikation die Aktualisierung von Vorfällen automatisieren und sicherstellen können, dass die Beteiligten klare, präzise und zeitnahe Informationen über den Vorfall erhalten. Und das alles, während Ihre Techniker mehr Zeit haben, sich auf eine schnellere Lösung des Vorfalls zu konzentrieren.

Sirine Karray
Jun 11, 2024 • 5 min read

KI im gesamten Incident-Management-Prozess

KI hat verschiedene Aspekte der Reaktion auf Zwischenfälle revolutioniert, von der Vorbereitung bis zur Lösung. Während des gesamten Lebenszyklus der Reaktion auf Vorfälle wird KI eingesetzt, um Prozesse zu rationalisieren, Lärm zu reduzieren und die Gesamteffizienz zu verbessern. Ein kritischer Bereich, in dem KI einen erheblichen Einfluss hat, ist die Kommunikation bei Vorfällen. Eine effektive und effiziente Kommunikation ist bei Vorfällen von entscheidender Bedeutung, da sie sicherstellt, dass die Beteiligten informiert und über den Status des Vorfalls und die Lösungsmaßnahmen informiert sind. In diesem Blog werden wir untersuchen, wie die KI-gestützte Vorfallkommunikation die Art und Weise, wie Vorfälle verwaltet und kommuniziert werden, verändert.

Nutzung von KI für die Incident Management-Kommunikation

Die Kommunikation von Vorfällen ist ein wichtiger Bestandteil der Reaktion auf Vorfälle. Dazu gehört es, die Beteiligten über den Status des Vorfalls, die Lösungsbemühungen und alle erforderlichen Maßnahmen auf dem Laufenden zu halten. Traditionell wurde dieser Prozess manuell durchgeführt, wobei Techniker und Einsatzkräfte viel Zeit damit verbrachten, Updates zu erstellen und mit den Beteiligten zu kommunizieren. Die KI-gestützte Kommunikation bei Vorfällen verändert dieses Umfeld jedoch. Durch den Einsatz von Large Language Models (LLMs) kann KI Aktualisierungen automatisieren und so sicherstellen, dass die Beteiligten klare, präzise und aktuelle Informationen über den Vorfall erhalten.

Bei der KI-gestützten Vorfallkommunikation werden LLMs verwendet, um Vorfallberichte, Updates und Nachrichten zu generieren. Diese Modelle werden mit riesigen Mengen an Textdaten trainiert, sodass sie den Kontext und die Nuancen der Vorfallkommunikation verstehen können. Wenn ein Vorfall eintritt, kann KI schnell einen detaillierten Vorfallbericht erstellen, der den Status des Vorfalls, eine Zusammenfassung, eine Beschreibung und die betroffenen Dienste enthält. Dieser Bericht wird dann verwendet, um die Beteiligten zu informieren und sicherzustellen, dass sie sich des Vorfalls und seiner Auswirkungen bewusst sind.

Vorteile die KI-gestützten Incident Management-Kommunikation

Die KI-gestützte Incident Management-Kommunikation bietet mehrere Vorteile, darunter:

  • Kohärenz und Klarheit: KI stellt sicher, dass die gesamte Kommunikation in Stil und Ton konsistent ist, wodurch Verwirrung vermieden und die Professionalität gewahrt bleibt.
  • Effizienz: Durch die Automatisierung von Updates können sich die Techniker auf die Lösung des Vorfalls konzentrieren, was die Gesamtreaktionszeit verkürzt.
  • Objektivität: KI minimiert das Potenzial von Vorurteilen oder Versehen und bietet eine objektive Darstellung der Ereignisse.
  • Tiefe des Einblicks: KI kann Erkenntnisse aufdecken, die bei manueller Analyse möglicherweise übersehen werden, und ermöglicht so ein tieferes Verständnis der zugrunde liegenden Probleme.

KI-gestützte Incident Management-Kommunikation mit ilertAI

Wir haben die KI-gestützte Vorfallkommunikation in ilertAI integriert, was eine nahtlose Automatisierung der Vorfallsupdates ermöglicht. Das folgende Beispiel zeigt, wie eine Aufforderung in einen umfassenden Vorfallbericht umgewandelt werden kann. Dieser Prozess umfasst das Generieren einer Zusammenfassung und einer Meldung, das Festlegen des Incident-Status und die Auswahl der betroffenen Dienste aus der bereitgestellten Meldung und den verfügbaren Diensten im Servicekatalog.

Die KI-gestützte Incident-Kommunikation transformiert die Art und Weise, wie Vorfälle verwaltet und kommuniziert werden. Durch die Nutzung von großen Sprachmodellen (LLMs) kann KI Updates automatisieren und sicherstellen, dass die Beteiligten klare, prägnante und zeitnahe Informationen über den Vorfall erhalten. Dieser Ansatz steigert nicht nur die Effizienz, sondern sorgt auch für Konsistenz, Objektivität und tiefere Einblicke. Mit Lösungen wie ilert wird die Implementierung von KI in Ihrem Incident-Management-Prozess zum Kinderspiel.

Engineering

Bereitstellung der Qdrant-Datenbank in Kubernetes mit Terraform: Eine Schritt-für-Schritt-Anleitung mit Beispielen

Im Internet gibt es keine Terraform-Bereitstellungsanleitung für Qdrant, sondern nur die Helm-Variante, weshalb wir uns entschlossen haben, diesen Artikel zu veröffentlichen.

Roman Frey
Jun 04, 2024 • 5 min read

Wenn es um die Verwaltung umfangreicher Vektorsuchvorgänge geht, entwickelt sich Qdrant schnell zur ersten Wahl. Es handelt sich um eine Open-Source-Vektordatenbank, die sich durch die Speicherung, Verwaltung und Durchführung von Ähnlichkeitssuchen in Vektoren auszeichnet. Für diejenigen, die Kubernetes für die Orchestrierung nutzen, kann die Integration von Qdrant über Terraform den Bereitstellungsprozess optimieren und die Skalierbarkeit und Reproduzierbarkeit der Infrastruktur verbessern.

ilert AI entwickelt sich schnell weiter, und wir haben eine umfangreiche Liste von AI-unterstützten Funktionen eingeführt. Die intelligente Gruppierung von Alarmen ist eine der neuesten, und wir haben Qdrant als Backend dafür verwendet. Unsere schnelle Recherche hat ergeben, dass es im Internet keinen Terraform-Implementierungsleitfaden für Qdrant gibt, sondern nur die Helm-Variante, daher haben wir uns entschlossen, diesen Artikel zu veröffentlichen. In diesem Blogbeitrag führen wir Sie durch den Prozess der Bereitstellung von Qdrant auf einem Kubernetes-Cluster mithilfe von Terraform, komplett mit Schritt-für-Schritt-Beispielen, um sicherzustellen, dass Sie folgen können, auch wenn Sie relativ neu in diesen Technologien sind.

Ein Wort zu Qdrant: Eine leistungsstarke Vektordatenbank

Im Kern ist Qdrant darauf ausgelegt, Vektoren zu speichern, d. h. Listen von Gleitkommazahlen, die die Merkmale von Elementen in einem hochdimensionalen Raum darstellen. Diese Vektoren können von Benutzerpräferenzen in einem Empfehlungssystem bis hin zu Merkmalsdeskriptoren in Bilderkennungssystemen alles darstellen.


Qdrant zeichnet sich durch mehrere robuste Merkmale aus:


  • Persistenz und Hochverfügbarkeit: Im Gegensatz zu einigen Vektordatenbanken, die nur für die In-Memory-Nutzung konzipiert sind, unterstützt Qdrant die Datenpersistenz. Durch die Speicherung der Daten auf der Festplatte wird eine hohe Verfügbarkeit und Dauerhaftigkeit gewährleistet, ohne die Abfrageleistung zu beeinträchtigen.
  • Effiziente Ähnlichkeitssuche: Durch den Einsatz modernster Indizierungstechniken wie HNSW (Hierarchical Navigable Small World Graphs) bietet Qdrant eine schnelle Suche nach den nächsten Nachbarn in hochdimensionalen Räumen, die für Echtzeitanwendungen entscheidend ist.
  • Skalierbare Architektur: Bei der Entwicklung von Qdrant wurde besonderer Wert auf Skalierbarkeit gelegt. Es unterstützt die horizontale Skalierung und eignet sich damit perfekt für den Einsatz in Kubernetes-Clustern.
  • Flexible Datenverwaltung: Neben Vektoren ermöglicht Qdrant die Speicherung zusätzlicher Nutzdaten, die für die Filterung und die Bereitstellung von mehr Kontext während der Suche verwendet werden können.
Qdrant zeichnet sich durch mehrere robuste Merkmale aus

Voraussetzungen

Bevor Sie mit der Bereitstellung beginnen, stellen Sie sicher, dass Sie Folgendes haben:‍

  • ein Kubernetes-Cluster eingerichtet und zugänglich ist
  • Terraform auf Ihrem Rechner installiert ist
  • kubectl installiert und konfiguriert ist, um mit Ihrem Kubernetes-Cluster zu kommunizieren Grundlegendes Verständnis von Kubernetes- und Terraform-Konzepten
  • Grundlegendes Verständnis von Kubernetes- und Terraform-Konzepten

Schritt 1: Einrichten Ihrer Terraform-Konfiguration

Zunächst müssen Sie Ihre Terraform-Konfiguration für die Bereitstellung von Qdrant einrichten. Erstellen Sie ein Verzeichnis, in dem Sie alle Ihre Terraform-Konfigurationen speichern.

mkdir qdrant-deployment

cd qdrant-deployment 

Erstellen Sie eine providers.tf-Datei, um die Kubernetes-Anbieter zu definieren.

terraform {

  required_providers {

    kubernetes = {

      source = "hashicorp/kubernetes"

    }

  }

}

provider "kubernetes" {

  config_path = "~/.kube/config"

}

Schritt 2: Definieren der Qdrant-Bereitstellung

Erstellen Sie eine Datei qdrant-deployment.tf im selben Verzeichnis. Diese Datei definiert die Bereitstellungsressourcen für Qdrant. Aktualisieren Sie die Bereitstellungsspezifikation entsprechend Ihren spezifischen Konfigurationsanforderungen.

module "qdrant" {

  source  = "iLert/qdrant/kubernetes"

  version = "1.0.0"  # Check for the latest version on the Terraform Registry

  # You can customize your deployment by specifying module variables here

  namespace        = "qdrant"

  replica_count    = 3

  qdrant_version   = "latest"  # Use a specific version if necessary

}

Hinweis: Ändern Sie namespace, replica_count und qdrant_version entsprechend Ihren Bereitstellungsanforderungen.

Schritt 3: Bereitstellung von Qdrant mit Terraform

Initialisieren Sie Terraform, um das Qdrant-Modul herunterzuladen und einzurichten.

terraform init 

Wenden Sie die Konfiguration an. Terraform berechnet die vorzunehmenden Änderungen und stellt einen Plan vor.

terraform apply 

Bestätigen Sie die Bereitstellung, indem Sie „yes“ eingeben, wenn Sie dazu aufgefordert werden. Terraform fährt mit der Bereitstellung von Qdrant in Ihrem Kubernetes-Cluster unter Verwendung der über das Modul angegebenen Konfigurationen fort.

Schritt 4: Überprüfen Sie die Bereitstellung

Sobald Terraform Ihre Konfigurationen erfolgreich angewendet hat, stellen Sie sicher, dass die Qdrant-Pods und -Dienste betriebsbereit sind.

kubectl get pods -n qdrant 

kubectl get services -n qdrant 

Sie sollten sehen, dass die Qdrant-Pods laufen und ein Dienst eingerichtet ist, um Qdrant für andere Anwendungen oder Dienste zugänglich zu machen.

Schritt 5: Interaktion mit Qdrant

Zu diesem Zeitpunkt ist Qdrant bereitgestellt und läuft in Ihrer Kubernetes-Umgebung. Sie können nun über die REST-API oder eine der für Qdrant verfügbaren Client-Bibliotheken mit dem System interagieren, um Vektorsuchen durchzuführen oder Vektoren und Nutzlasten zu verwalten.

Fazit

Die Integration von Qdrant in Kubernetes stellt eine leistungsstarke Lösung für Unternehmen und Entwickler dar, die erweiterte Vektorsuchfunktionen nutzen möchten. Der automatisierte Infrastructure-as-Code-Ansatz vereinfacht nicht nur den Bereitstellungsprozess, sondern verbessert auch die Robustheit und Skalierbarkeit Ihrer Anwendungen. Mit der Weiterentwicklung von KI und maschinellem Lernen wird die effiziente Verarbeitung und Suche in großen Datensätzen immer wichtiger. Für weitere Anpassungen und erweiterte Konfigurationen lesen Sie bitte die Dokumentation auf der Terraform Registry für das ilert Qdrant-Modul, die offizielle Qdrant-Dokumentation, um den vollen Funktionsumfang Ihrer neuen Qdrant-Bereitstellung zu erkunden, und die Terraform-Provider-Dokumentation für Kubernetes.

Alle entdecken
Danke! Deine Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
Unsere Cookie-Richtlinie
Wir verwenden Cookies, um Ihre Erfahrung zu verbessern, den Seitenverkehr zu verbessern und für Marketingzwecke. Erfahren Sie mehr in unserem Datenschutzrichtlinie.
Open Preferences
Danke! Deine Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
Danke! Deine Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.