
wsl --install
WSL2 und GPU-Unterstützung aktivieren
wsl --set-default-version 2
Falls WSL bereits installiert ist, setze WSL2 als Standard:
NVIDIA CUDA-Treiber für WSL installieren
https://developer.nvidia.com/cuda/wsl
wsl
nvidia-smi
Nach der Installation WSL öffnen und prüfen, ob die GPU erkannt wird.
Docker Desktop installieren und überprüfen, ob Docker WSL2 verwendet.

# Aktuellste Ollama-Version herunterladen
docker pull ollama/ollama:latest
# Falls eine bestimmte Version nötig ist (z. B. v0.5.6):
docker pull ollama/ollama:v0.5.6
# Container starten
docker run -d --name ollama --gpus all -p 11434:11434 -v ollama_data:/root/.ollama ollama/ollama:latest
# Falls eine bestimmte Version nötig ist (z. B. v0.5.6):
docker run -d --name ollama --gpus all -p 11434:11434 -v ollama_data:/root/.ollama ollama/ollama:v0.5.6
Container erstellen & starten
# Prüfen, ob der Container läuft
docker ps
# Prüfen, ob Ollama die GPU verwendet
docker logs ollama | Select-String "GPU"
Container prüfen
# Deepseek-R1 Modell herunterladen
docker exec -it ollama ollama pull deepseek-r1
# Teuken Modell herunterladen
# fl0id/teuken-7b-instruct-commercial-v0.4
# Liste der geladenen Modelle anzeigen
docker exec -it ollama ollama list
# Modell testen
docker exec -it ollama ollama run deepseek-r1 "Wer war Albert Einstein?"
Modell laden & testen
docker exec -it ollama ollama pull llama3.2:latest
docker exec -it ollama ollama run llama3.2 "Erkläre die Relativitätstheorie in einfachen Worten."
Zusätzliches Modell installieren
# Container stoppen & entfernen
docker stop ollama
docker rm ollama
# Gespeicherte Modelle & Daten löschen
docker volume rm ollama_data
# Optional: ALLE nicht verwendeten Docker-Daten entfernen
docker system prune -a
Falls notwenig: Docker-Container & Modelle vollständig löschen
docker pull ghcr.io/open-webui/open-webui:main
# Falls eine bestimmte Version nötig ist
docker pull ghcr.io/open-webui/open-webui:v0.1.0
OpenWebUI Docker-Image herunterladen
docker run -d --name openwebui -p 8080:8080 -v openwebui_data:/app/data ghcr.io/open-webui/open-webui:main
# Überprüfen, ob der Docker Container unter Port 8080 läuft
docker logs openwebui | Select-String "Uvicorn running"
OpenWebUI-Container unter Port 8080 starten
http://localhost:8080/
OpenWebUI starten
