sasas.cloud
LOCAL AI

On‑prem. Ohne Cloud‑Drama.

Hier kommt dein Local‑AI Projekt hin: Modelle lokal hosten, Automationen bauen, Daten privat halten.

Status: Warten auf lokale KI-Instanz
http://localhost:8859
Schritt 1: Lokale KI-Instanz auf Port 8859 starten

Beispiel mit Ollama:

ollama serve --port 8859
Schritt 2: API-Endpunkt testen

Testbefehl:

curl http://localhost:8859/api/tags
Schritt 3: Copilot mit lokaler KI verbinden

Die Copilot-Seite wird automatisch versuchen, die lokale Instanz zu erreichen

Ziel
LLM + RAG + Tools im eigenen Stack
plan
Sentinel
Wächter für Monitoring, Automationen & Security
ops
Copilot
KI-Assistent mit lokaler Integration
active
Local AI Setup
Vollständige Installation
setup
Direct API
Auf Port 8859
port
WebUI
Benutzeroberfläche
ui