Aller au contenu principal
Retour à propos
📘 Guide d'installation

Ollama — IA Locale

Apprenez à installer et utiliser Ollama pour exécuter des modèles d'IA directement sur votre ordinateur, sans abonnement et en gardant le contrôle total sur vos données.

100% Gratuit
Aucun abonnement requis
Privé
Données sur votre PC
Hors-ligne
Fonctionne sans internet
1

Qu'est-ce qu'Ollama ?

Ollama est un outil qui permet d'exécuter des modèles d'intelligence artificielle directement sur votre ordinateur.

Contrairement aux services en ligne :

Pas d'abonnement — Totalement gratuit
Données privées — Rien n'est envoyé sur des serveurs externes
Fonctionne hors connexion — Après l'installation initiale
2

Pourquoi utiliser Ollama avec CodeClean ?

Utiliser l'IA sans payer d'abonnement
Garder le contrôle total sur vos données
Tester différents modèles (DeepSeek, Qwen, Llama, Mistral...)
Apprendre comment fonctionnent réellement les IA modernes
Fonctionner même sans connexion internet
3

Prérequis

Avant d'installer Ollama, vérifiez que vous avez :

Système d'exploitation : Windows 10/11, macOS 12+, ou Linux
RAM : 16 Go minimum (recommandé), 8 Go possible pour petits modèles
Espace disque : 10-50 Go selon les modèles téléchargés
Processeur : CPU moderne (GPU optionnel mais recommandé pour les performances)
4

Installation d'Ollama

Windows / macOS :

1. Rendez-vous sur ollama.com

2. Cliquez sur "Download"

3. Exécutez l'installateur

4. Suivez les instructions

Linux :

curl -fsSL https://ollama.com/install.sh | sh

Vérification de l'installation :

ollama --version

5

Télécharger un premier modèle

Une fois Ollama installé, téléchargez un modèle. Nous recommandons DeepSeek Coder pour la programmation :

ollama pull deepseek-coder:6.7b

Autres modèles populaires :

ollama pull llama3.2 — Modèle généraliste
ollama pull qwen2.5-coder — Excellent pour le code
ollama pull mistral — Rapide et efficace

⚠️ Le téléchargement peut prendre plusieurs minutes selon votre connexion.

6

Lancer Ollama

Démarrer le serveur Ollama :

ollama serve

Le serveur doit rester actif en arrière-plan pour que CodeClean puisse communiquer avec lui.

Tester en ligne de commande :

ollama run deepseek-coder

Vous pouvez maintenant discuter avec l'IA directement dans le terminal !

7

Connexion avec CodeClean

Une fois Ollama lancé :

1. Ouvrez CodeClean

2. Allez dans Paramètres IA (icône ⚙️ ou page /ai-settings)

3. Sélectionnez le mode "Local" ou "Automatique"

4. CodeClean détectera automatiquement Ollama sur http://localhost:11434

5. Choisissez votre modèle dans la liste

✅ Vous pouvez maintenant utiliser l'assistant IA sans aucun abonnement !

8

Bonnes pratiques

Choisir le bon modèle :

PC avec 8 Go RAM → modèles "7b" ou moins
PC avec 16 Go RAM → modèles jusqu'à "13b"
PC avec 32 Go+ RAM → modèles "70b" possibles

Gérer les performances :

Fermez les applications gourmandes pendant l'utilisation
Un GPU (NVIDIA) accélère significativement les réponses
Les premiers tokens sont plus lents, ensuite ça s'accélère

Quand préférer le cloud ?

Appareil peu puissant
Besoin de réponses très rapides
Modèles très grands (GPT-4, Claude 3 Opus)

Prêt à utiliser l'IA locale ?

Une fois Ollama installé et un modèle téléchargé, retournez dans CodeClean pour profiter de l'assistant IA gratuit.