Skip to content

Commit

Permalink
manually edited French translation
Browse files Browse the repository at this point in the history
  • Loading branch information
hchiam committed May 1, 2024
1 parent aa475a0 commit b39c4fb
Showing 1 changed file with 7 additions and 7 deletions.
14 changes: 7 additions & 7 deletions (docs)/fr/docs/intermediate/chain_of_thought/page.mdx
Original file line number Diff line number Diff line change
@@ -1,10 +1,10 @@
export const metadata = {
sidebar_position: 3,
title: "🟢 Chain of Thought Prompting",
description: "Plongez dans le guide en ligne sur les exemples de Chain of Thought. Améliorez vos compétences en ingénierie avec l'IA dans ce cours à Learn Prompting. Commencez maintenant !",
description: "Plongez dans le guide en ligne sur les exemples de Chain of Thought. Améliorez vos compétences en ingénierie avec l'IA dans ce cours sur Learn Prompting. Commencez maintenant !",
};

# 🟢 Chain of Thought Prompting
# 🟢 Chain of Thought Prompting (chaîne de pensée)

## Qu'est-ce que le Chain of Thought Prompting ?

Expand Down Expand Up @@ -43,7 +43,7 @@ incapable de résoudre un simple problème de mots. La seconde montre GPT-3 (dav
#### Incorrect

<iframe
src="iframelink1"
src="https://embed.learnprompting.org/embed?config=eyJ0b3BQIjowLCJ0ZW1wZXJhdHVyZSI6MCwibWF4VG9rZW5zIjoyNTYsIm91dHB1dCI6Ik9wdGlvbiAxIGlzIGEgZmFzdGVyIHdheSB0byBnZXQgdG8gd29yay4iLCJwcm9tcHQiOiJXaGljaCBpcyBhIGZhc3RlciB3YXkgdG8gZ2V0IHRvIHdvcms%2FXG5PcHRpb24gMTogVGFrZSBhIDEwMDAgbWludXRlIGJ1cywgdGhlbiBhIGhhbGYgaG91ciB0cmFpbiwgYW5kIGZpbmFsbHkgYSAxMCBtaW51dGUgYmlrZSByaWRlLlxuT3B0aW9uIDI6IFRha2UgYW4gODAwIG1pbnV0ZSBidXMsIHRoZW4gYW4gaG91ciB0cmFpbiwgYW5kIGZpbmFsbHkgYSAzMCBtaW51dGUgYmlrZSByaWRlLiIsIm1vZGVsIjoidGV4dC1kYXZpbmNpLTAwMyJ9"
style={{
width: "100%",
height: "500px",
Expand All @@ -57,7 +57,7 @@ incapable de résoudre un simple problème de mots. La seconde montre GPT-3 (dav
#### Correct

<iframe
src="iframelink2"
src="https://embed.learnprompting.org/embed?config=eyJ0b3BQIjowLCJ0ZW1wZXJhdHVyZSI6MCwibWF4VG9rZW5zIjoyNTYsIm91dHB1dCI6Ik9wdGlvbiAxIHdpbGwgdGFrZSAxMDAwKzMwKzEwID0gMTA0MCBtaW51dGVzLlxuT3B0aW9uIDIgd2lsbCB0YWtlIDgwMCs2MCszMCA9IDg5MCBtaW51dGVzLlxuU2luY2UgT3B0aW9uIDIgdGFrZXMgODkwIG1pbnV0ZXMgYW5kIE9wdGlvbiAxIHRha2VzIDEwNDAgbWludXRlcywgT3B0aW9uIDIgaXMgZmFzdGVyLiIsInByb21wdCI6IldoaWNoIGlzIGEgZmFzdGVyIHdheSB0byBnZXQgaG9tZT9cbk9wdGlvbiAxOiBUYWtlIGFuIDEwIG1pbnV0ZXMgYnVzLCB0aGVuIGFuIDQwIG1pbnV0ZSBidXMsIGFuZCBmaW5hbGx5IGEgMTAgbWludXRlIHRyYWluLlxuT3B0aW9uIDI6IFRha2UgYSA5MCBtaW51dGVzIHRyYWluLCB0aGVuIGEgNDUgbWludXRlIGJpa2UgcmlkZSwgYW5kIGZpbmFsbHkgYSAxMCBtaW51dGUgYnVzLlxuT3B0aW9uIDEgd2lsbCB0YWtlIDEwKzQwKzEwID0gNjAgbWludXRlcy5cbk9wdGlvbiAyIHdpbGwgdGFrZSA5MCs0NSsxMD0xNDUgbWludXRlcy5cblNpbmNlIE9wdGlvbiAxIHRha2VzIDYwIG1pbnV0ZXMgYW5kIE9wdGlvbiAyIHRha2VzIDE0NSBtaW51dGVzLCBPcHRpb24gMSBpcyBmYXN0ZXIuXG5cbldoaWNoIGlzIGEgZmFzdGVyIHdheSB0byBnZXQgdG8gd29yaz9cbk9wdGlvbiAxOiBUYWtlIGEgMTAwMCBtaW51dGUgYnVzLCB0aGVuIGEgaGFsZiBob3VyIHRyYWluLCBhbmQgZmluYWxseSBhIDEwIG1pbnV0ZSBiaWtlIHJpZGUuXG5PcHRpb24gMjogVGFrZSBhbiA4MDAgbWludXRlIGJ1cywgdGhlbiBhbiBob3VyIHRyYWluLCBhbmQgZmluYWxseSBhIDMwIG1pbnV0ZSBiaWtlIHJpZGUuIiwibW9kZWwiOiJ0ZXh0LWRhdmluY2ktMDAzIn0%3D"
style={{
width: "100%",
height: "500px",
Expand All @@ -72,7 +72,7 @@ incapable de résoudre un simple problème de mots. La seconde montre GPT-3 (dav

Le CoT a démontré son efficacité pour améliorer les résultats sur des tâches telles que
l'arithmétique, le raisonnement de bon sens et les tâches de raisonnement symbolique (@wei2022chain).
En particulier, le PaLM 540B sollicité (@chowdhery2022palm) atteint un taux de résolution
En particulier, le prompting du PaLM 540B (@chowdhery2022palm) atteint un taux de résolution
de 57 % sur le benchmark GSM8K (@cobbe2021training) (SOTA à l'époque).

<div style={{ textAlign: "center" }}>
Expand All @@ -99,8 +99,8 @@ Aucun modèle de langage n’a été ~~blessé~~ affiné lors de la rédaction d
## Conclusion

Le prompting CoT avance de manière significative la façon dont nous interagissons avec les modèles de langage de grande taille, offrant une méthode qui encourage un processus de raisonnement articulé.
Cette approche a amélioré la précision et l'interprétabilité des résultats des modèles, notamment dans les tâches de raisonnement complexes.
Cette approche a amélioré la précision et l'interprétabilité des sorties des modèles, notamment dans les tâches de raisonnement complexes.
Son efficacité est plus prononcée dans les modèles plus grands, et le prompting CoT souligne le potentiel pour
le développement de systèmes d'IA qui fournissent des réponses correctes et des
aperçus transparents sur leurs processus de pensée, comblant le fossé entre le raisonnement humain et
l'intelligence artificielle.
l'intelligence artificielle.

0 comments on commit b39c4fb

Please sign in to comment.