🧠

Willkommen bei HiveMind

Dezentrale KI, die wie ein Gehirn funktioniert.
Kein Server. Kein Konzern. Nur du und das Netzwerk.

Die Idee

Stell dir vor, jeder Mensch betreibt ein kleines Stueck kuenstliche Intelligenz auf seinem eigenen Computer. Allein ist jedes Stueck begrenzt — aber verbunden entsteht etwas Groesseres. Genau wie Neuronen in einem Gehirn: Jedes einzelne ist einfach, aber zusammen erzeugen sie Bewusstsein.

HiveMind ist der Versuch, genau das zu bauen. Ohne Zentrale. Ohne Kontrolle. Ohne Abhaengigkeit. Dein Node gehoert dir — deine Daten bleiben bei dir. Und trotzdem bist du Teil von etwas, das groesser ist als jeder einzelne Node.

🧩

Wie ein Gehirn

Jeder Node ist wie eine Hirnregion: spezialisiert auf bestimmte Themen. Einer kennt sich mit Programmierung aus, ein anderer mit Kochen, ein dritter mit Medizin. Anfragen werden automatisch an die richtigen Nodes geleitet — Sparse Activation, genau wie im echten Gehirn.

🔒

Kein Single Point of Failure

Kein zentraler Server, der ausfallen kann. Kein Unternehmen, das den Stecker zieht. Faellt ein Node aus, uebernehmen andere. Das Netzwerk wird schlechter, nie kaputt — Graceful Degradation.

🧬

Evolutionaere Optimierung

Gute Konfigurationen verbreiten sich automatisch. Wenn ein Node besser in Mathe wird, teilt er sein Wissen als LoRA-Delta mit anderen Mathe-Nodes. Schlechte Updates werden verworfen. Wie in der Natur: Was funktioniert, ueberlebt.

👤

Dein Node, deine Daten

Alles laeuft lokal. Dein Modell, dein Wissen, deine Gespraeche — nichts davon verlasst deinen Rechner, es sei denn du entscheidest es. Keine Cloud. Keine Abos. Keine Ueberwachung.

⚡ So funktioniert es

1. Anfrage kommt rein

Du stellst eine Frage im Chat, per Telegram oder ueber die API.

2. Confidence-Check

Dein Node prueft: "Kann ich das selbst?" Score ueber 0.8 = lokale Antwort. Unter 0.3 = Netzwerk fragen.

3. Netzwerk-Routing

Die Anfrage geht an spezialisierte Nodes. Direkt per P2P oder ueber das Relay-System fuer Nodes hinter NAT.

4. Beste Antwort gewinnt

Mehrere Nodes antworten, die beste Antwort wird ausgewaehlt und dir zurueckgegeben.

🌱 Was dein Node alles kann

Chat — Lokale KI-Gespraeche, offline verfuegbar
RAG — Eigenes Wissen einbinden (Dokumente, Datasets)
Training — Aus Gespraechen lernen, LoRA-Finetuning
Memory — Fakten merken, ueber Sitzungen hinweg
P2P — Direktverbindung zu anderen Nodes
Relay — Verbindung auch hinter NAT/DS-Lite
Plugins — Web-Suche, PDF-Export, und mehr
Updates — Kryptographisch signierte Auto-Updates

"Jeder Node ist gleichwertig. Kein Node ist unverzichtbar.
Das Netzwerk ist die Intelligenz — nicht der einzelne."

v1.0.0

Node Status

Laden...

Netzwerk & Peers

Deine Adresse

Teile eine dieser Adressen mit anderen HiveMind-Nutzern. Stelle sicher, dass Port 9420 in deinem Router/Firewall freigegeben ist.
Ermittle IP-Adressen...

Relay

Relay ermoeglicht Verbindungen auch hinter NAT/CGN/DS-Lite — kein Port-Forwarding noetig! Nodes verbinden sich ausgehend zum Relay-Server, der Messages weiterleitet.
Laden...

Verbundene Peers

Laden...

Spezialisierung

Node-Profil

Definiere, worauf sich dein Node spezialisiert. Andere Nodes im Netzwerk leiten passende Anfragen bevorzugt an Spezialisten weiter.

Confidence-Routing:
Score >= 0.8: Lokale Antwort direkt
Score 0.3-0.8: Lokal + Netzwerk, beste gewinnt
Score < 0.3: Nur Netzwerk

Training & RAG

Trainingsdaten

Laden...
Wie funktioniert Training?
HiveMind sammelt automatisch deine Chat-Gespraeche als Trainingsdaten. Diese koennen als JSONL exportiert und fuer LoRA-Finetuning verwendet werden.

Eigene Trainingsdaten erstellen:
- JSONL-Format: Eine Zeile pro Beispiel
- Jede Zeile: {"messages": [{"role":"user","content":"Frage"},{"role":"assistant","content":"Antwort"}]}
- Thematisch fokussiert = bessere Spezialisierung

Trainingsdaten finden:
- huggingface.co/datasets — Tausende Datensaetze
- OpenAssistant, Alpaca, ShareGPT Datensaetze
- Eigene Daten: FAQ-Listen, Dokumentationen, Anleitungen

RAG — Wissensdatenbank

Lade Dokumente hoch um deinen Node mit eigenem Wissen zu fuettern. Bei Anfragen wird relevanter Kontext automatisch eingebunden. Unterstuetzte Formate: .txt, .md, .csv, .json, .py, .js, .html
Laden...

HuggingFace Dataset importieren

LoRA-Adapter

Was ist LoRA?
Low-Rank Adaptation — kleine Spezialisierungs-Module (10-50 MB) die auf das Basismodell aufgesetzt werden. Sie veraendern das Modellverhalten ohne das Original zu aendern.

LoRA erstellen:
- Mit Unsloth (schnellstes Tool, kostenlos)
- Mit LLaMA-Factory (GUI-basiert)
- Google Colab Notebooks (kostenlose GPU)

LoRA finden:
- huggingface.co — Suche nach "lora gguf"
- Muss zum Basismodell passen (z.B. Qwen2.5-LoRA fuer Qwen2.5)
Laden...

Globaler Memory

Gespeicherte Fakten

HiveMind erkennt automatisch wichtige Informationen aus deinen Chats und merkt sie sich dauerhaft. Z.B. "Ich heisse Max" oder "Ich mag Python". Diese Infos stehen in jeder Sitzung zur Verfuegung.
Laden...

Eigene Notizen

Laden...

Update-Schluessel

Public Key

Laden...

Private Key

Laden...

Update veroeffentlichen