29 lines
585 B
Markdown
29 lines
585 B
Markdown
# Configuration
|
|
|
|
## Options
|
|
|
|
### gpu_layers
|
|
Nombre de couches à décharger sur le GPU (0 = CPU uniquement).
|
|
|
|
### debug
|
|
Active les logs de débogage.
|
|
|
|
### models_path
|
|
Chemin vers le dossier des modèles.
|
|
|
|
## Réseau P2P
|
|
|
|
Cet add-on crée automatiquement un réseau P2P pour distribuer la charge.
|
|
|
|
1. Démarrez d'abord l'instance master
|
|
2. Récupérez le token dans les logs ou l'interface web
|
|
3. Configurez les workers avec ce token
|
|
|
|
## Modèles supportés
|
|
|
|
- GGUF (llama.cpp)
|
|
- Formats compatibles LocalAI
|
|
|
|
## Dépannage
|
|
|
|
Consultez les logs de l'add-on pour identifier les problèmes. |