La méthode la plus puissante pour le code et la logique. Au lieu de demander uniquement le résultat, on demande à l’IA de décomposer son raisonnement étape par étape — ce qui force l’IA à se vérifier elle-même.
Principe
Par défaut, un LLM génère le résultat directement, ce qui peut produire des erreurs de logique silencieuses. En forçant l’IA à “penser à voix haute”, on réduit drastiquement ces erreurs.
Sans CoT : "Écris-moi une fonction qui calcule X"
Avec CoT : "Avant d'écrire le code, explique ta logique étape par étape, puis écris le code final."
Consignes types à ajouter
Formulations efficaces
- “Explique ta logique étape par étape avant de donner le code final.”
- “Réfléchis à voix haute avant de répondre.”
- “Décompose le problème en sous-étapes, puis résous chacune.”
- “Identifie les cas limites avant d’écrire la solution.”
Exemple complet
Tu es un expert en algorithmique.
Avant d'écrire le code :
1. Explique ta compréhension du problème.
2. Liste les cas limites à gérer.
3. Décris l'algorithme que tu vas utiliser et pourquoi.
Ensuite, écris la fonction Python qui retourne le k-ième plus grand élément d'une liste non triée.
Résultat obtenu :
- L’IA identifie les cas
k > len(liste), liste vide, doublons - Elle compare heap vs tri vs quickselect
- Elle écrit un code plus robuste et commenté
Variante — Zero-shot vs Few-shot CoT
| Type | Description | Exemple |
|---|---|---|
| Zero-shot CoT | Ajouter “Pensons étape par étape” | Simple, universel |
| Few-shot CoT | Fournir des exemples de raisonnement + réponse | Plus puissant, nécessite des exemples |
Quand l’utiliser
- Génération et débogage de code
- Problèmes mathématiques ou algorithmiques
- Analyse logique ou raisonnement en plusieurs étapes
- Quand tu veux comprendre pourquoi l’IA prend une décision
En relation avec
- Prompt Engineering — Vue d’ensemble — hub prompt
- CREATE — à combiner pour un prompt rigoureux + raisonnement explicite
- Agents autonomes — les agents utilisent CoT en interne pour planifier