Configurer Mistral Vibe pour utiliser un modèle d'IA en local avec Ollama

L'hébergement local d'un modèle LLM présente plusieurs intérêts par rapport à l'utilisation d'un service en ligne:

  • confidentialité : votre code et vos données restent sur votre infrastructure
  • coût : pas de facturation par token, utilisation illimitée
  • personnalisation : contrôle total sur les paramètres et le fine-tuning
  • disponibilité : pas de dépendance à une connexion internet ou à un service tiers

Pourquoi Ollama ?

Ollama est un serveur local qui héberge et exécute des modèles LLM, et fournit une API compatible OpenAI. Il se distingue par sa rapidité de mise en place:

  • installation en une commande
  • gestion automatique des dépendances (ROCm, CUDA)
  • API compatible OpenAI disponible
  • support GPU transparent
  • pas de configuration complexe de conteneurs ou d'environnements

Pourquoi Mistral Vibe ?

Mistral Vibe est un agent CLI de codage qui utilise un LLM pour comprendre votre projet, manipuler des fichiers, exécuter des commandes. Il permet simplement de :

  • configurer un fournisseur cloud ou local
  • créer des agents personnalisés
  • définir des skills réutilisables
  • fournir des outils à LLM pour l'exploration et l'édition de fichiers
  • configurer des serveurs MCP

Architecture

Ces deux outils vont nous permettre de mettre en place un mode client-serveur au travers de l'API OpenAI, dont la spécification est disponible ici: https://developers.openai.com/api/reference/overview/. Ollama fera office de serveur sur une machine dédiée et équipée d'un matériel adéquat à l'exploitation d'un modèle (gpu, ram). Mistral Vibe sera lui exécuté sur le poste de travail du développeur.

Installation d'Ollama sur un serveur (Fedora)

Dans l'exemple qui suit, Ollama sera installé sur un serveur distant (ici sous Fedora).

Ollama

# Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Vérifier que le service tourne
systemctl status ollama

Téléchargement d'un modèle

ollama pull devstral-small-2

Configuration pour l'accès distant

Créer le fichier de configuration override.conf:

sudo mkdir -p /etc/systemd/system/ollama.service.d/
sudo nano /etc/systemd/system/ollama.service.d/override.conf

Ce fichier permet de renseigner des variables d'environnement pour le service, il y est notamment possible de configurer la taille du contexte ou le niveau de log:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_CONTEXT_LENGTH=48000"
Environment="OLLAMA_DEBUG=1"
Environment="HSA_OVERRIDE_GFX_VERSION=10.3.0"

Note : La variable HSA_OVERRIDE_GFX_VERSION=10.3.0 permet de supporter certains GPU AMD anciens (ici, l'architecture gfx1031), non officiellement supportés par ROCm.

Redémarrage du service

sudo systemctl daemon-reload
sudo systemctl restart ollama

Configuration du firewall

sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload

Installation et configuration Mistral Vibe sur le poste de travail

Mistral Vibe

# Installation rapide (recommandée)
curl -LsSf https://mistral.ai/vibe/install.sh | bash

Premier lancement :

vibe

Vibe va créer un fichier de configuration ~/.vibe/config.toml et demander une clé API Mistral (on peut passer cette étape pour configurer directement Ollama).

Configuration pour Ollama distant

Éditer le fichier de configuration :

nano ~/.vibe/config.toml

Ajouter les sections suivantes pour définir Ollama en tant que provider, ainsi que le modèle que l'on vient de télécharger sur le serveur:

# Modèle actif
active_model = "ollama-devstral-small-2"

# Définir le provider Ollama
[[providers]]
name = "ollama"
api_base = "http://IP_FEDORA:11434/v1"
# Laisser vide, pas besoin de clé d'API pour Ollama local
api_key_env_var = ""
api_style = "openai"
backend = "generic"

# Définir le modèle
[[models]]
name = "devstral-small-2"
provider = "ollama"
alias = "ollama-devstral-small-2"
temperature = 0.2
input_price = 0.0
output_price = 0.0

Utilisation de Mistral Vibe

Lancer Vibe depuis le dossier du projet :

cd /chemin/vers/projet
vibe

Il est ensuite possible de sélectionner le modèle avec la commande /model.


Dépannage

journalctl

Il est possible de consulter les logs d'Ollama avec cette commande:

journalctl -u ollama -f

Le niveau de log est configurable avec la variable d'environnement OLLAMA_DEBUG.

Conclusion

Cette configuration permet de bénéficier d'un assistant de codage puissant tout en gardant le contrôle sur vos données. Le couple Ollama + Mistral Vibe offre une alternative intéressante aux solutions cloud pour le développement quotidien, avec l'avantage de l'utilisation illimitée et de la personnalisation complète.

Besoin d'accompagnement ?

Développeur senior PHP/Symfony et formateur professionnel, j'accompagne les entreprises dans la conception d'applications sur mesure et la formation de leurs équipes.