Pôle Formation UIMM-CVDL
Chaque fois que vous interagissez avec ChatGPT, Gemini ou un autre modèle de langage, sept paramètres invisibles façonnent silencieusement la réponse. Changez un seul nombre, et vous passez d'insights brillants à du charabia incohérent.
La plupart des utilisateurs ne touchent jamais à ces réglages. Ils restent avec les valeurs par défaut et se demandent pourquoi l'IA semble parfois "stupide". Maîtrisez ces 7 paramètres, et vous obtiendrez de meilleurs résultats que 99% des utilisateurs.
Bonne nouvelle ! Vous n'avez pas besoin de gérer des clés API. Google AI Studio offre une interface gratuite pour tester ces paramètres directement.
Astuce : AI Studio sauvegarde automatiquement vos configurations. Vous pouvez aussi obtenir le code Python/JavaScript pour reproduire vos paramètres dans vos applications !
Note sur les Frequency et Presence Penalties :
Ces deux paramètres ne sont pas disponibles dans Google AI Studio car ils sont spécifiques à l'API OpenAI. Gemini utilise plutôt Temperature et Top-P pour contrôler la diversité des réponses.
Cette section est destinée aux utilisateurs avancés qui souhaitent tester l'API Gemini directement. Si vous débutez, utilisez plutôt Google AI Studio ci-dessus.
La clé est stockée uniquement dans votre navigateur
La réponse s'affichera ici...
Fonction : Limite stricte du nombre de tokens que le modèle peut générer.
Définissez toujours cette valeur pour contrôler les coûts et la vitesse.
Fonction : Contrôle le caractère aléatoire des réponses.
Au-delà de 2.0, les réponses deviennent souvent incohérentes.
Fonction : N'échantillonne que les tokens dont la probabilité cumulée ≥ P. Coupe la "longue traîne".
Gardez Top-P à 0.9 et ajustez plutôt Temperature.
Fonction : Ne considère que les K tokens avec la plus haute probabilité à chaque étape.
Différence avec Top-P :
La plupart des APIs modernes utilisent Top-P plutôt que Top-K. Mettez à 0 pour désactiver.
Fonction : Réduit la probabilité proportionnellement à la fréquence d'apparition des tokens.
Quand l'utiliser :
Quand NE PAS l'utiliser :
Commencez à 0.0, augmentez uniquement si vous voyez des répétitions.
Fonction : Pénalise les tokens apparus AU MOINS UNE FOIS (binaire, non proportionnel).
Différence avec Frequency :
Quand l'utiliser :
Peut faire dériver le sujet. Évitez pour du contenu technique ou cohérent.
Fonction : Force le modèle à s'arrêter lorsque des chaînes spécifiques apparaissent. Le texte d'arrêt N'EST PAS inclus dans la sortie.
Séquences d'arrêt courantes :
Utilisez des délimiteurs non ambigus pour un contrôle précis.