Sicherstellung der Datensicherheit bei LLMs
Um die Sicherheit und Integrität unserer Systeme beim Einsatz von Large Language Models (LLMs) zu gewährleisten, halten wir uns an strenge Richtlinien für Datenverarbeitung und Betrieb. Hier ein Überblick über unsere wichtigsten Maßnahmen:
- Alle Daten werden in Rechenzentren innerhalb der EU verarbeitet. Wir nutzen den Microsoft Azure OpenAI Service. Der Azure OpenAI Service wird vollständig von Microsoft kontrolliert und betrieben; Microsoft hostet die OpenAI-Modelle in der eigenen Azure-Umgebung und der Service interagiert NICHT mit Diensten, die von OpenAI betrieben werden.
- Wir ermöglichen es unseren Kunden, die Nutzung sämtlicher KI-Services jederzeit abzulehnen.Zum Schutz unserer Systeme vor typischen LLM-Schwachstellen und Risiken verfolgen wir folgende Vorgehensweise:
- Alle Operationen, die im Zusammenhang mit einer LLM-Interaktion ausgeführt werden, sind nicht-destruktiv und können rückgängig gemacht werden.
- Die mit LLMs geteilten Daten werden niemals vom Output des LLM beeinflusst. Die von uns geteilten Daten sind festgelegt und Bestandteil des ersten Prompts. Nachfolgende Interaktionen mit dem LLM verändern die Menge der geteilten Daten nicht. LLMs sind nicht direkt mit unseren Services oder Datenbanken verbunden
- Wir beschränken die Daten, die mit dem LLM geteilt werden, auf das absolute Minimum.
Sind Sie bereit, Ihr Incident-Management zu verbessern?
Kostenlos starten