Les 7 Paramètres qui Contrôlent l'IA

Pôle Formation UIMM-CVDL

Guide complet Google AI Studio

Maîtrisez les Réglages Cachés de l'IA

Chaque fois que vous interagissez avec ChatGPT, Gemini ou un autre modèle de langage, sept paramètres invisibles façonnent silencieusement la réponse. Changez un seul nombre, et vous passez d'insights brillants à du charabia incohérent.

La plupart des utilisateurs ne touchent jamais à ces réglages. Ils restent avec les valeurs par défaut et se demandent pourquoi l'IA semble parfois "stupide". Maîtrisez ces 7 paramètres, et vous obtiendrez de meilleurs résultats que 99% des utilisateurs.

Méthode Recommandée : Google AI Studio

Bonne nouvelle ! Vous n'avez pas besoin de gérer des clés API. Google AI Studio offre une interface gratuite pour tester ces paramètres directement.

Comment régler les paramètres dans AI Studio

  1. Ouvrez AI Studio : Rendez-vous sur https://aistudio.google.com/prompts/new_chat
  2. Écrivez votre prompt dans la zone de texte principale
  3. Cliquez sur l'icône "Run settings" dans le coin supérieur droit
  4. Ajustez les paramètres qui apparaissent dans le panneau latéral :
    • Model : Choisissez votre modèle (Gemini 1.5 Flash, Pro, etc.)
    • Temperature : Contrôle la créativité (0.0 = déterministe, 2.0 = très créatif)
    • Max output tokens : Limite la longueur de la réponse
    • Top-K : Nombre de candidats considérés (0 = désactivé)
    • Top-P : Filtre basé sur la probabilité cumulative (0.0-1.0)
    • Stop sequences : Texte qui force l'arrêt de la génération
  5. Cliquez sur "Run" pour générer la réponse avec vos paramètres
  6. Comparez les résultats en modifiant un paramètre à la fois

Astuce : AI Studio sauvegarde automatiquement vos configurations. Vous pouvez aussi obtenir le code Python/JavaScript pour reproduire vos paramètres dans vos applications !

Note sur les Frequency et Presence Penalties :

Ces deux paramètres ne sont pas disponibles dans Google AI Studio car ils sont spécifiques à l'API OpenAI. Gemini utilise plutôt Temperature et Top-P pour contrôler la diversité des réponses.

Méthode Alternative : Test via API (Optionnel)

Cette section est destinée aux utilisateurs avancés qui souhaitent tester l'API Gemini directement. Si vous débutez, utilisez plutôt Google AI Studio ci-dessus.

La clé est stockée uniquement dans votre navigateur

Réponse

Tokens: - Temps: -

La réponse s'affichera ici...

Contrôlez les 7 Paramètres

1. Max Tokens (Contrôleur de Longueur)

500
100 4000

Fonction : Limite stricte du nombre de tokens que le modèle peut générer.

  • Chat : 300-500 tokens
  • Code : 1000-2000 tokens
  • Articles : 2000-4000 tokens
  • JSON : 50-200 tokens

Définissez toujours cette valeur pour contrôler les coûts et la vitesse.

2. Temperature (Cadran de Créativité)

0.7
0.0 (Déterministe) 2.0 (Très créatif)

Fonction : Contrôle le caractère aléatoire des réponses.

  • 0.0-0.3 (Factuel) : Code, extraction de données, traduction, classification
  • 0.7-1.0 (Équilibré) : Conversation générale, explications
  • 1.2-2.0 (Créatif) : Écriture créative, brainstorming, génération d'histoires

Au-delà de 2.0, les réponses deviennent souvent incohérentes.

3. Top-P / Nucleus Sampling (Filtre de Qualité)

0.90
0.0 1.0

Fonction : N'échantillonne que les tokens dont la probabilité cumulée ≥ P. Coupe la "longue traîne".

  • 1.0 : Aucun filtrage (risqué)
  • 0.95 : Filtrage léger (créatif)
  • 0.9 : Valeur par défaut recommandée
  • 0.5 : Filtrage lourd (conservateur)

Gardez Top-P à 0.9 et ajustez plutôt Temperature.

4. Top-K (Limiteur de Candidats)

40
0 (Désactivé) 100

Fonction : Ne considère que les K tokens avec la plus haute probabilité à chaque étape.

Différence avec Top-P :

  • Top-K : Nombre fixe de tokens
  • Top-P : Nombre variable basé sur la masse de probabilité

La plupart des APIs modernes utilisent Top-P plutôt que Top-K. Mettez à 0 pour désactiver.

5. Frequency Penalty (Tueur de Répétitions)

0.0
0.0 2.0

Fonction : Réduit la probabilité proportionnellement à la fréquence d'apparition des tokens.

Quand l'utiliser :

  • Génération longue (articles, histoires)
  • Écriture créative
  • Génération de listes

Quand NE PAS l'utiliser :

  • Écriture technique (les termes doivent se répéter)
  • Génération de code
  • Sorties structurées (JSON/XML)

Commencez à 0.0, augmentez uniquement si vous voyez des répétitions.

6. Presence Penalty (Moteur de Nouveauté)

0.0
0.0 2.0

Fonction : Pénalise les tokens apparus AU MOINS UNE FOIS (binaire, non proportionnel).

Différence avec Frequency :

  • Frequency : Pénalise selon le nombre d'occurrences
  • Presence : Binaire (utilisé = pénalisé de façon égale)

Quand l'utiliser :

  • Brainstorming
  • Écriture exploratoire
  • Éviter de "rester bloqué"

Peut faire dériver le sujet. Évitez pour du contenu technique ou cohérent.

7. Stop Sequences (Frein d'Urgence)

Fonction : Force le modèle à s'arrêter lorsque des chaînes spécifiques apparaissent. Le texte d'arrêt N'EST PAS inclus dans la sortie.

Séquences d'arrêt courantes :

  • JSON : }, ]
  • Code : ```
  • Listes : \n\n
  • Sections : ###, ---
  • Chat : User:, Human:

Utilisez des délimiteurs non ambigus pour un contrôle précis.

Guide de Référence Rapide

Par Type de Tâche

  • Factuel/Technique
    temp: 0.0-0.3, penalties: 0.0
  • Chat Général
    temp: 0.7-0.9, freq: 0.2-0.4
  • Créatif
    temp: 1.2-1.5, freq: 0.6-0.8, presence: 0.4-1.0

Par Longueur de Sortie

  • Court (chat)
    200-500 tokens
  • Moyen (descriptions)
    500-1000 tokens
  • Long (articles)
    1000-4000 tokens

Règles d'Or

  1. Toujours définir max_tokens
  2. Ajuster temp OU top_p (pas les deux)
  3. Commencer penalties à 0.0
  4. Changer UN paramètre à la fois
  5. Tester, mesurer, itérer

Erreurs Courantes

  • Tout régler haut = incohérence
  • Ignorer max_tokens = coûts imprévisibles
  • Penalties sur contenu technique = variables changent
  • Pas de stop sequences pour JSON = continue après }