Node Status
Laden...
Netzwerk & Peers
Deine Adresse
Teile eine dieser Adressen mit anderen HiveMind-Nutzern. Stelle sicher, dass Port 9420 in deinem Router/Firewall freigegeben ist.
Ermittle IP-Adressen...
Relay
Relay ermoeglicht Verbindungen auch hinter NAT/CGN/DS-Lite — kein Port-Forwarding noetig! Nodes verbinden sich ausgehend zum Relay-Server, der Messages weiterleitet.
Laden...
Verbundene Peers
Laden...
Spezialisierung
Node-Profil
Definiere, worauf sich dein Node spezialisiert. Andere Nodes im Netzwerk leiten passende Anfragen bevorzugt an Spezialisten weiter.
Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk
Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk
Training & RAG
Trainingsdaten
Laden...
Wie funktioniert Training?
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.
Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung
Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.
Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung
Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen
RAG — Wissensdatenbank
Lade Dokumente hoch um deinen Node mit eigenem Wissen zu fuettern. Bei Anfragen wird relevanter Kontext automatisch eingebunden. Unterstuetzte Formate: .txt, .md, .csv, .json, .py, .js, .html
Laden...
HuggingFace Dataset importieren
LoRA-Adapter
Was ist LoRA?
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.
LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)
LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.
LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)
LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Laden...
Globaler Memory
Gespeicherte Fakten
HiveMind erkennt automatisch wichtige Informationen aus deinen Chats und merkt sie sich dauerhaft. Z.B. "Ich heisse Max" oder "Ich mag Python". Diese Infos stehen in jeder Sitzung zur Verfuegung.
Laden...
Eigene Notizen
Laden...
Update-Schluessel
Public Key
Laden...
Private Key
Laden...