Skip to content

AI- und LLM-Betriebshinweise

Diese Seite verbindet AI- und LLM-Administration mit dem umgebenden Sicherheits- und Daten-Scope-Modell.

Relevante Plattform-Einstiege

Route Gedachte Rolle Betriebliche Bedeutung
/admin/ai/llm Firmen-Admin firmenbezogene Modell- und AI-Konfiguration
/superadmin/ai/llm Superadmin plattformweite Modell- und AI-Betriebssteuerung

Warum AI-Einstellungen nicht isoliert betrachtet werden duerfen

AI- und LLM-Konfiguration haengt nicht nur an der Modellanbindung. Sie wird auch bestimmt durch:

  • Firmen-Scope
  • Rollen- und Route-Guards
  • eingeschraenkte Ressourcen wie payloads und custom_headers
  • tenant-lokale Sensitivitaetsentscheidungen in AI Scenarios

Matrix zu Sensitivitaet und Datenfreigabe

Thema Warum es fuer AI oder LLM relevant ist
Payload-Sichtbarkeit Prompts oder Zusammenfassungen duerfen keinen lesbaren Body voraussetzen, wenn payloads eingeschraenkt sind
Custom-Header-Maskierung maskierte Header veraendern den Kontext fuer AI-gestuetzte Flows
Focused- oder Tag-Scope der sichtbare Tenant-Ausschnitt kann bewusst eng gehalten sein
Company Isolation modellgestuetzte Workflows duerfen Firmen-Grenzen nicht verwischen
Admin- versus Superadmin-Bereich die eine Konfiguration wirkt in der Firma, die andere plattformweit

Sichere Betriebsfragen

  • Laeuft die Funktion im Firmen-Scope oder im Plattform-Scope?
  • Hat der Nutzer wirklich Zugriff auf den zugrunde liegenden Message-Inhalt?
  • Werden maskierte Werte als fehlende Daten missverstanden, obwohl sie absichtlich verborgen sind?
  • Passen tenant-lokale Sensitivitaetseinstellungen zum geplanten AI-Anwendungsfall?

Beziehung zur Message-Analyse

AI-gestuetzte Hilfe rund um Messages und Payloads ist nur so verlaesslich wie der sichtbare Quellkontext. Wenn Payloads oder Header verborgen sind, ist das zuerst eine Sicherheitsfunktion und nicht automatisch ein Datenqualitaetsproblem.

Querverweise