
 ====================================================
       HiveMind - Windows Installer
       Dezentrale P2P-AI fuer alle
 ====================================================

 [1/5] Pruefe Python...
       Python 3.12.8 gefunden.
       [OK] Version ausreichend.

 [2/5] Pruefe C++ Build Tools...
       [OK] Visual Studio gefunden.

 [3/5] Pruefe cmake...
       [OK] cmake gefunden.

 [4/5] Starte HiveMind-Setup...


╔══════════════════════════════════════════════╗
║          🧠 HiveMind — Installation          ║
║       Dezentrale P2P-AI für alle             ║
╚══════════════════════════════════════════════╝

Schritt 1/5 — Systemcheck

  System: Windows AMD64
  Python: 3.12.8  ✓
  RAM: 29.7 GB  ✓
  Speicherplatz: 579.7 GB frei  ✓

Schritt 2/5 — Installationsort
  → Installationsverzeichnis [C:\Users\chris\AppData\Local\HiveMind]:

  ⚠ Verzeichnis existiert bereits und ist nicht leer.
  → Trotzdem fortfahren? (j/n) [j]: j

Schritt 3/5 — Modell auswählen
  Das Schnell-Modell (Qwen 2.5 0.5B) wird automatisch installiert — es liefert sofortige Vorantworten.
  Hier waehlst du nur das groessere Hauptmodell fuer ausfuehrliche Antworten.


  Vorhandene Modelle gefunden:
    ✓ Qwen2.5-7B-Instruct-Q4_K_M.gguf (4.4 GB)
  → Vorhandenes Modell verwenden? (j/n) [j]: j
  → Verwende Qwen2.5-7B-Instruct-Q4_K_M.gguf

  Modell-Download wird übersprungen.

Schritt 4/5 — Node einrichten
  → Name fuer deinen Node [Christian]:

  Optional: Telegram-Bridge
  Damit kannst du deinen HiveMind-Node per Telegram-Bot bedienen.
  Benötigt ein Telegram-Konto und ~5 MB extra Speicherplatz.
  → Telegram-Paket installieren/aktualisieren? (j/n) [n]: j

──────────────────────────────────────────────────
  Zusammenfassung:
  Verzeichnis: C:\Users\chris\AppData\Local\HiveMind
  Modell:      Qwen2.5-7B-Instruct-Q4_K_M.gguf
  Node-Name:   Christian
  Telegram:    ✓ Ja
──────────────────────────────────────────────────
  →
  Installation starten? (j/n) [j]: j

Schritt 5/5 — Installation

  Kopiere Dateien...
  ✓ Dateien kopiert
  ✓ Konfiguration erstellt

  Erstelle Virtual Environment...
  Python: C:\Program Files\Python312\python.exe
  Aktualisiere pip...

  Installiere llama-cpp-python (NVIDIA CUDA 13.1)...
  GPU: NVIDIA GeForce RTX 4060
  Suche vorgebautes CUDA-Wheel (kein Compiler nötig)...
  Quelle: github.com/dougeeai/llama-cpp-python-wheels (ada, CUDA 13.0)

  Downloading: llama-cpp-python (ada, CUDA 13.0)
  https://github.com/dougeeai/llama-cpp-python-wheels/releases/download/v0.3.16-cuda13.0-sm89-py312/llama_cpp_python-0.3.16%2Bcuda13.0.sm89.ada-cp312-cp312-win_amd64.whl

  Lade herunter...

  PowerShell-Download fehlgeschlagen: In Zeile:1 Zeichen:898
  ######################################## 100.0% (61/61 MB)
  ✓ Download abgeschlossen
  ✓ llama-cpp-python (ada, CUDA 13.0) installiert!
    CUDA Toolkit und VS Build Tools waren nicht erforderlich.

  ⚠ CUDA DLLs fehlen in llama_cpp/lib: cudart64_13.dll, cublas64_13.dll, cublasLt64_13.dll
    Installiere nvidia-cuda-runtime-cu13 + nvidia-cublas-cu13...
    (nvidia-cuda-runtime-cu13 nicht auf PyPI — versuche cu12 als Fallback)
    ✓ cudart64_12.dll → llama_cpp/lib/cudart64_13.dll (Fallback)
    ✓ cublas64_12.dll → llama_cpp/lib/cublas64_13.dll (Fallback) 
    ✓ cublasLt64_12.dll → llama_cpp/lib/cublasLt64_13.dll (Fallback)

  Installiere weitere Abhängigkeiten...
  ✓ Alle Abhängigkeiten installiert

  Installiere Telegram-Bot...
  ✓ python-telegram-bot installiert

  Installiere HiveMind...
  ✓ HiveMind installiert

  Erstelle Starter...
  ✓ Desktop-Verknüpfung erstellt

╔══════════════════════════════════════════════╗
║        ✅ Installation abgeschlossen!         ║
╚══════════════════════════════════════════════╝

  So startest du HiveMind:

  • Doppelklick auf HiveMind.bat im Installationsordner
  • Oder die Desktop-Verknüpfung

  Befehle im Chat:
  /status   — Node-Status anzeigen
  /plugins  — Plugins auflisten
  /help     — Hilfe
  /quit     — Beenden

  Installationsordner: C:\Users\chris\AppData\Local\HiveMind
  Konfiguration: C:\Users\chris\AppData\Local\HiveMind\config.yaml
