📖 Sommaire
- Gemma vs Gemini : Quelle différence ?
- Pourquoi passer par l’API plutôt qu’une installation locale ?
- Étape 1 : Préparer le terrain (L’environnement virtuel)
- Étape 2 : Installer les outils nécessaires
- Étape 3 : Configurer votre clé API
- Étape 4 : Votre premier script de test
- Conclusion
Vous avez entendu parler de Gemma, le “petit frère” ouvert de Gemini, et vous voulez l’essayer sur votre machine Linux ? Si vous débutez et que vous avez peur de ralentir votre ordinateur, ce guide est fait pour vous.
Nous allons voir ensemble comment configurer Gemma via une API, ce qui permet de profiter de sa puissance tout en laissant votre ordinateur “frais” et disponible pour d’autres tâches.
Gemma vs Gemini : Quelle différence ?
Avant de passer à la technique, un petit rappel :
- Gemini est le modèle propriétaire massif de Google (Cloud uniquement).
- Gemma est un modèle Open-Weights. Google a libéré sa technologie pour que tout le monde puisse l’utiliser, l’intégrer dans des applications ou même le faire tourner localement (pour les grosses machines).
Pourquoi passer par l’API plutôt qu’une installation locale ?
Pour faire tourner Gemma “en dur” sur votre PC (ce qu’on appelle une installation binaire), il faut beaucoup de ressources. Avec 8 Go de RAM, votre ordinateur risquerait de s’essouffler.
En utilisant l’API Google AI Studio, c’est le Cloud de Google qui fait le travail de réflexion, et votre PC se contente d’afficher la réponse. C’est fluide, rapide et gratuit dans la limite du “Free Tier”.
Étape 1 : Préparer le terrain (L’environnement virtuel)
Sous Linux, on utilise souvent un “environnement virtuel”. C’est comme une petite bulle isolée pour que vos outils Python ne se mélangent pas avec le reste du système.
# Créer la bulle (l'environnement)
python3 -m venv .venv
# Activer la bulle
source .venv/bin/activate
Étape 2 : Installer les outils nécessaires
Une fois dans votre environnement, installez les bibliothèques indispensables :
pip install google-genai python-dotenv
Étape 3 : Configurer votre clé API
Récupérez votre clé sur Google AI Studio. Créez ensuite un fichier .env à la racine de votre dossier pour y stocker votre clé en toute sécurité :
GEMINI_API_KEY=VOTRE_CLE_ICI
Étape 4 : Votre premier script de test
Créez un fichier test_gemma.py et collez-y ce code :
import os
from google import genai
from dotenv import load_dotenv
load_dotenv()
client = genai.Client(api_key=os.getenv("GEMINI_API_KEY"))
response = client.models.generate_content(
model="gemma-3-4b-it",
contents="Bonjour Gemma ! Peux-tu te présenter brièvement ?",
)
print(response.text)
Conclusion
Vous avez maintenant accès à l’un des modèles ouverts les plus performants du moment. Que ce soit pour apprendre à coder ou pour automatiser des tâches, Gemma est un compagnon de route exceptionnel.
Le saviez-vous ? En passant par l’API, vous pouvez tester les versions Gemma 3 (4B) ou même les plus puissantes sans changer de matériel !
Cet article a été rédigé avec l’assistance de Gemini-CLI dans le cadre d’un déploiement automatisé.