reasoning des réponses. La valeur de ce champ est null dans les réponses des modèles qui ne prennent pas en charge le raisonnement.
Modèles pris en charge avec raisonnement
| ID du modèle (pour l’utilisation de l’API) | Prise en charge du raisonnement |
|---|---|
google/gemma-4-31B-it | Activé par défaut |
MiniMaxAI/MiniMax-M2.5 | Always on |
moonshotai/Kimi-K2.5 | Always on |
nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-FP8 | Activé par défaut |
openai/gpt-oss-120b | Always on |
openai/gpt-oss-20b | Always on |
Qwen/Qwen3.5-35B-A3B | Activé par défaut |
Qwen/Qwen3-235B-A22B-Thinking-2507 | Always on |
zai-org/GLM-5.1 | Activé par défaut |
Modèles avec le raisonnement Always on
Always on dans le tableau des modèles pris en charge ci-dessus, il inclut toujours le raisonnement et il n’est pas possible de le désactiver.
Désactiver le raisonnement
Activé par défaut dans le tableau précédent Modèles pris en charge, vous pouvez désactiver le raisonnement pour réduire la consommation de jetons ou simplifier la réponse. Pour désactiver le raisonnement pour une requête, dans chat_template_kwargs, définissez l’indicateur enable_thinking sur la valeur False (Python) ou false (Bash) :
- Python
- Bash
Activer le raisonnement
Disabled by default dans le tableau modèles pris en charge ci-dessus, vous pouvez activer le raisonnement en définissant l’indicateur enable_thinking sur la valeur True (Python) ou true (Bash) dans l’extrait de code ci-dessus.