Node Status

Laden...

Netzwerk & Peers

Verbundene Peers

Laden...

Spezialisierung

Node-Profil

Definiere, worauf sich dein Node spezialisiert. Andere Nodes im Netzwerk leiten passende Anfragen bevorzugt an Spezialisten weiter.

Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk

Training & RAG

Trainingsdaten

Laden...
Wie funktioniert Training?
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.

Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung

Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen

RAG — Wissensdatenbank

Lade Dokumente hoch um deinen Node mit eigenem Wissen zu fuettern. Bei Anfragen wird relevanter Kontext automatisch eingebunden. Unterstuetzte Formate: .txt, .md, .csv, .json, .py, .js, .html
Laden...

LoRA-Adapter

Was ist LoRA?
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.

LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)

LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Laden...

Globaler Memory

Gespeicherte Fakten

HiveMind erkennt automatisch wichtige Informationen aus deinen Chats und merkt sie sich dauerhaft. Z.B. "Ich heisse Max" oder "Ich mag Python". Diese Infos stehen in jeder Sitzung zur Verfuegung.
Laden...

Eigene Notizen

Laden...

Update-Schluessel

Public Key

Laden...

Private Key

Laden...

Update veroeffentlichen