'Installation de Gemma sur Linux : Le Guide du Débutant (via API)'
tutoriels intelligence-artificielle

'Installation de Gemma sur Linux : Le Guide du Débutant (via API)'

Publié le 29 avril 2026 Par l'Expertise CriloCom

📖 Sommaire


Vous avez entendu parler de Gemma, le “petit frère” ouvert de Gemini, et vous voulez l’essayer sur votre machine Linux ? Si vous débutez et que vous avez peur de ralentir votre ordinateur, ce guide est fait pour vous.

Nous allons voir ensemble comment configurer Gemma via une API, ce qui permet de profiter de sa puissance tout en laissant votre ordinateur “frais” et disponible pour d’autres tâches.

Gemma vs Gemini : Quelle différence ?

Avant de passer à la technique, un petit rappel :

  • Gemini est le modèle propriétaire massif de Google (Cloud uniquement).
  • Gemma est un modèle Open-Weights. Google a libéré sa technologie pour que tout le monde puisse l’utiliser, l’intégrer dans des applications ou même le faire tourner localement (pour les grosses machines).

Pourquoi passer par l’API plutôt qu’une installation locale ?

Pour faire tourner Gemma “en dur” sur votre PC (ce qu’on appelle une installation binaire), il faut beaucoup de ressources. Avec 8 Go de RAM, votre ordinateur risquerait de s’essouffler.

En utilisant l’API Google AI Studio, c’est le Cloud de Google qui fait le travail de réflexion, et votre PC se contente d’afficher la réponse. C’est fluide, rapide et gratuit dans la limite du “Free Tier”.

Étape 1 : Préparer le terrain (L’environnement virtuel)

Sous Linux, on utilise souvent un “environnement virtuel”. C’est comme une petite bulle isolée pour que vos outils Python ne se mélangent pas avec le reste du système.

# Créer la bulle (l'environnement)
python3 -m venv .venv

# Activer la bulle
source .venv/bin/activate

Étape 2 : Installer les outils nécessaires

Une fois dans votre environnement, installez les bibliothèques indispensables :

pip install google-genai python-dotenv

Étape 3 : Configurer votre clé API

Récupérez votre clé sur Google AI Studio. Créez ensuite un fichier .env à la racine de votre dossier pour y stocker votre clé en toute sécurité :

GEMINI_API_KEY=VOTRE_CLE_ICI

Étape 4 : Votre premier script de test

Créez un fichier test_gemma.py et collez-y ce code :

import os
from google import genai
from dotenv import load_dotenv

load_dotenv()
client = genai.Client(api_key=os.getenv("GEMINI_API_KEY"))

response = client.models.generate_content(
    model="gemma-3-4b-it",
    contents="Bonjour Gemma ! Peux-tu te présenter brièvement ?",
)

print(response.text)

Conclusion

Vous avez maintenant accès à l’un des modèles ouverts les plus performants du moment. Que ce soit pour apprendre à coder ou pour automatiser des tâches, Gemma est un compagnon de route exceptionnel.

Le saviez-vous ? En passant par l’API, vous pouvez tester les versions Gemma 3 (4B) ou même les plus puissantes sans changer de matériel !


Cet article a été rédigé avec l’assistance de Gemini-CLI dans le cadre d’un déploiement automatisé.

Pour aller plus loin...