AI- und LLM-Betriebshinweise
Diese Seite verbindet AI- und LLM-Administration mit dem umgebenden Sicherheits- und Daten-Scope-Modell.
Relevante Plattform-Einstiege
| Route | Gedachte Rolle | Betriebliche Bedeutung |
|---|---|---|
/admin/ai/llm | Firmen-Admin | firmenbezogene Modell- und AI-Konfiguration |
/superadmin/ai/llm | Superadmin | plattformweite Modell- und AI-Betriebssteuerung |
Warum AI-Einstellungen nicht isoliert betrachtet werden duerfen
AI- und LLM-Konfiguration haengt nicht nur an der Modellanbindung. Sie wird auch bestimmt durch:
- Firmen-Scope
- Rollen- und Route-Guards
- eingeschraenkte Ressourcen wie
payloadsundcustom_headers - tenant-lokale Sensitivitaetsentscheidungen in
AI Scenarios
Matrix zu Sensitivitaet und Datenfreigabe
| Thema | Warum es fuer AI oder LLM relevant ist |
|---|---|
| Payload-Sichtbarkeit | Prompts oder Zusammenfassungen duerfen keinen lesbaren Body voraussetzen, wenn payloads eingeschraenkt sind |
| Custom-Header-Maskierung | maskierte Header veraendern den Kontext fuer AI-gestuetzte Flows |
| Focused- oder Tag-Scope | der sichtbare Tenant-Ausschnitt kann bewusst eng gehalten sein |
| Company Isolation | modellgestuetzte Workflows duerfen Firmen-Grenzen nicht verwischen |
| Admin- versus Superadmin-Bereich | die eine Konfiguration wirkt in der Firma, die andere plattformweit |
Sichere Betriebsfragen
- Laeuft die Funktion im Firmen-Scope oder im Plattform-Scope?
- Hat der Nutzer wirklich Zugriff auf den zugrunde liegenden Message-Inhalt?
- Werden maskierte Werte als fehlende Daten missverstanden, obwohl sie absichtlich verborgen sind?
- Passen tenant-lokale Sensitivitaetseinstellungen zum geplanten AI-Anwendungsfall?
Beziehung zur Message-Analyse
AI-gestuetzte Hilfe rund um Messages und Payloads ist nur so verlaesslich wie der sichtbare Quellkontext. Wenn Payloads oder Header verborgen sind, ist das zuerst eine Sicherheitsfunktion und nicht automatisch ein Datenqualitaetsproblem.