Hilfe & Guides

🧠 Node trainieren

Mach deinen Node zum Experten — mit LoRA-Feinabstimmung und Retrieval-Augmented Generation (RAG).

RAG vs. LoRA — Was verwende ich wann?

📚 RAG

Retrieval-Augmented Generation — Das Modell bleibt unverändert. Beim Antworten wird passender Text aus deinen Dokumenten herausgesucht und als Kontext mitgegeben.

Gut für: Dokumente, Handbücher, Wissensdatenbanken, FAQ-Texte — alles, was du dem Modell "nachschlagen" lassen möchtest.

✅ Schnell einzurichten · Keine GPU nötig · Quellen sichtbar

🎯 LoRA

Low-Rank Adaptation — Das Modell wird tatsächlich feinjustiert. Es lernt Schreibstil, Ton und domänenspezifisches Wissen dauerhaft.

Gut für: Stil-Anpassung, spezielles Vokabular, Verhalten des Assistenten, domänenspezifische Aufgaben.

⚠️ Braucht GPU · Dauert Stunden · Erfordert sorgfältiges Dataset

💡

Für die meisten Anwendungsfälle reicht RAG vollkommen aus. LoRA-Training empfiehlt sich erst, wenn du wirklich das Verhalten oder Sprachgefühl des Modells dauerhaft ändern möchtest.

RAG einrichten

RAG ist out-of-the-box aktiv. Du musst nur Quellen hinzufügen. Das lokale Embedding-Modell wird automatisch beim ersten Dokument-Upload geladen.

# In config.yaml (optional anpassen):
rag:
  enabled: true
  embedding_model: "all-MiniLM-L6-v2"   # Klein & schnell
  chunk_size: 512          # Token pro Chunk
  chunk_overlap: 64        # Überlappung
  top_k: 5                 # Anzahl der abgerufenen Chunks

Quellen hinzufügen

  1. Dashboard öffnen

    Im Dashboard: KI & Lernen → Training & RAG → Reiter "RAG-Wissensbasis".

  2. Dokument hochladen

    Klicke auf "Dokument hinzufügen" und wähle eine Datei. Unterstützte Formate:

    • .pdf — PDFs werden automatisch per OCR geparst
    • .txt, .md — Direkter Text-Import
    • .docx — Word-Dokumente
    • URL — Webseiten-Inhalt automatisch crawlen
  3. Indexierung abwarten

    HiveMind splittet das Dokument in Chunks, erstellt Embeddings und speichert sie in der lokalen Vektordatenbank. Je nach Dateigröße dauert das wenige Sekunden bis Minuten.

  4. Quelle aktivieren

    Stelle sicher, dass der Toggle neben der Quelle auf aktiv steht (blau). Inaktive Quellen werden beim Antworten ignoriert.

RAG testen

Wechsle in den Chat und stelle eine Frage, die dein hochgeladenes Dokument beantwortet. In der Antwort sollte unten ein "Quellen"-Block erscheinen:

📚 Quellen:
  • Handbuch.pdf (Seite 12): "Die Kalibrierung erfolgt..."
  • Handbuch.pdf (Seite 34): "Fehlercode E04 bedeutet..."

Falls keine Quellen erscheinen: Prüfe, ob RAG in den Chat-Einstellungen aktiviert ist (⚙️-Icon im Chat).

LoRA-Dataset erstellen

Ein LoRA-Dataset ist eine JSONL-Datei mit Trainingsbeispielen im Instruction-Format:

{"instruction": "Erkläre Photosynthese.", "input": "", "output": "Photosynthese ist der Prozess, bei dem Pflanzen..."}
{"instruction": "Wie lautet die Formel für Wasser?", "input": "", "output": "H₂O — zwei Wasserstoffatome und ein Sauerstoffatom."}
{"instruction": "Übersetze ins Englische:", "input": "Guten Morgen", "output": "Good morning"}

Richtlinien für ein gutes Dataset:

  • Mindestens 100 Beispiele, besser 500–2000
  • Vielfältig: verschiedene Aufgabentypen und Formulierungen
  • Konsistenter Stil in den Ausgaben (so, wie der Assistent sprechen soll)
  • Keine Fehler oder Widersprüche

LoRA-Training starten

  1. Zum Training-Bereich navigieren

    Dashboard: KI & Lernen → Training & RAG → Reiter "LoRA-Training".

  2. Dataset hochladen

    Lade deine .jsonl-Datei hoch. HiveMind validiert automatisch das Format.

  3. Hyperparameter setzen

    ParameterStandardErklärung
    Lernrate2e-4Kleiner = langsamer aber stabiler
    Epochen3Wie oft über das Dataset iteriert wird
    LoRA Rank16Höher = mehr Kapazität, mehr VRAM
    LoRA Alpha32Skalierungsfaktor (meist 2× Rank)
    Batch-Größe4Kleiner bei wenig VRAM
  4. Training starten

    Klicke auf "Training starten". Der Fortschritt (Loss-Kurve, aktuelle Epoche) wird in Echtzeit angezeigt. Das Training läuft im Hintergrund — du kannst das Dashboard schließen.

    ⚠️

    Während des Trainings ist der Node für andere Anfragen verlangsamt oder nicht verfügbar. Plane das Training für Zeiten, wo du ihn nicht brauchst.

Adapter aktivieren

Nach dem Training erscheint der Adapter in der Adapter-Liste. Klicke auf "Aktivieren", um ihn zu laden. Du kannst jederzeit zwischen Adaptern und dem Basis-Modell wechseln.

Spezialisierung verstehen

HiveMind verfolgt automatisch, bei welchen Themen dein Node gute Antworten liefert. Über Zeit entwickelt er messbare Stärken. Die Spezialisierungs-Seite im Dashboard zeigt:

  • Aktuelle Fitness-Scores pro Thema (0.0–1.0)
  • Wie sich die Scores über Zeit entwickeln
  • Welche Themen andere Nodes im Netzwerk bevorzugt an deinen Node weiterleiten