Ollama — IA Locale
Apprenez à installer et utiliser Ollama pour exécuter des modèles d'IA directement sur votre ordinateur, sans abonnement et en gardant le contrôle total sur vos données.
Qu'est-ce qu'Ollama ?
Ollama est un outil qui permet d'exécuter des modèles d'intelligence artificielle directement sur votre ordinateur.
Contrairement aux services en ligne :
Pourquoi utiliser Ollama avec CodeClean ?
Prérequis
Avant d'installer Ollama, vérifiez que vous avez :
Installation d'Ollama
Windows / macOS :
1. Rendez-vous sur ollama.com
2. Cliquez sur "Download"
3. Exécutez l'installateur
4. Suivez les instructions
Linux :
curl -fsSL https://ollama.com/install.sh | sh
Vérification de l'installation :
ollama --version
Télécharger un premier modèle
Une fois Ollama installé, téléchargez un modèle. Nous recommandons DeepSeek Coder pour la programmation :
ollama pull deepseek-coder:6.7b
Autres modèles populaires :
⚠️ Le téléchargement peut prendre plusieurs minutes selon votre connexion.
Lancer Ollama
Démarrer le serveur Ollama :
ollama serve
Le serveur doit rester actif en arrière-plan pour que CodeClean puisse communiquer avec lui.
Tester en ligne de commande :
ollama run deepseek-coder
Vous pouvez maintenant discuter avec l'IA directement dans le terminal !
Connexion avec CodeClean
Une fois Ollama lancé :
1. Ouvrez CodeClean
2. Allez dans Paramètres IA (icône ⚙️ ou page /ai-settings)
3. Sélectionnez le mode "Local" ou "Automatique"
4. CodeClean détectera automatiquement Ollama sur http://localhost:11434
5. Choisissez votre modèle dans la liste
✅ Vous pouvez maintenant utiliser l'assistant IA sans aucun abonnement !
Bonnes pratiques
Choisir le bon modèle :
Gérer les performances :
Quand préférer le cloud ?
Prêt à utiliser l'IA locale ?
Une fois Ollama installé et un modèle téléchargé, retournez dans CodeClean pour profiter de l'assistant IA gratuit.