Node Status
Laden...
Netzwerk & Peers
Verbundene Peers
Laden...
Spezialisierung
Node-Profil
Definiere, worauf sich dein Node spezialisiert. Andere Nodes im Netzwerk leiten passende Anfragen bevorzugt an Spezialisten weiter.
Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk
Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk
Training & RAG
Trainingsdaten
Laden...
Wie funktioniert Training?
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.
Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung
Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.
Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung
Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen
RAG — Wissensdatenbank
Lade Dokumente hoch um deinen Node mit eigenem Wissen zu fuettern. Bei Anfragen wird relevanter Kontext automatisch eingebunden. Unterstuetzte Formate: .txt, .md, .csv, .json, .py, .js, .html
Laden...
LoRA-Adapter
Was ist LoRA?
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.
LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)
LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.
LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)
LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Laden...
Globaler Memory
Gespeicherte Fakten
HiveMind erkennt automatisch wichtige Informationen aus deinen Chats und merkt sie sich dauerhaft. Z.B. "Ich heisse Max" oder "Ich mag Python". Diese Infos stehen in jeder Sitzung zur Verfuegung.
Laden...
Eigene Notizen
Laden...
Update-Schluessel
Public Key
Laden...
Private Key
Laden...