|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Les modèles de langage autorégressif ne sont pas condamnés: comment les requêtes de raisonnement en chaîne et attentive empêchent l'incohérence
Feb 12, 2025 at 08:15 am
Yann LeCun, scientifique en chef de l'IA chez Meta et l'un des pionniers de l'IA moderne, a récemment fait valoir que les modèles de grande langue autorégressifs (LLM) sont fondamentalement défectueux.

Yann LeCun, Chief AI Scientist at Meta and one of the pioneers of modern AI, recently shared his thoughts on a fundamental limitation he sees in autoregressive Large Language Models (LLMs). According to LeCun, the probability of generating a correct response decreases exponentially with each token, making them impractical for long-form, reliable AI interactions.
Yann LeCun, scientifique en chef de l'IA chez Meta et l'un des pionniers de l'IA moderne, a récemment partagé ses réflexions sur une limitation fondamentale qu'il voit dans les modèles de grande langue autorégressifs (LLM). Selon LeCun, la probabilité de générer une réponse correcte diminue de façon exponentielle avec chaque jeton, ce qui les rend impraticables pour les interactions AI fiables longues.
While I deeply respect LeCun’s work and approach to AI development and resonate with many of his insights, I believe this particular claim overlooks some key aspects of how LLMs function in practice. In this post, I’ll explain why autoregressive models are not inherently divergent and doomed, and how techniques like Chain-of-Thought (CoT) and Attentive Reasoning Queries (ARQs)—a method we’ve developed to achieve high-accuracy customer interactions with Parlant—effectively prove otherwise.
Bien que je respecte profondément le travail et l'approche de LeCun au développement de l'IA et résonne avec bon nombre de ses idées, je crois que cette affirmation particulière néglige certains aspects clés du fonctionnement des LLM dans la pratique. Dans cet article, je vais expliquer pourquoi les modèles autorégressifs ne sont pas intrinsèquement divergents et condamnés, et comment des techniques telles que la chaîne de pensées (COT) et les requêtes de raisonnement attentif (ARQ) - une méthode que nous avons développée pour réaliser un client de haute performance Les interactions avec Parlant - prouvent efficacement le contraire.
What is Autoregression?
Qu'est-ce que l'autorégression?
At its core, an LLM is a probabilistic model trained to generate text one token at a time. Given an input context, the model predicts the most likely next token, feeds it back into the original sequence, and repeats the process iteratively until a stop condition is met. This allows the model to generate anything from short responses to entire articles.
À la base, un LLM est un modèle probabiliste formé pour générer du texte un jeton à la fois. Compte tenu d'un contexte d'entrée, le modèle prédit le token le plus probable, le renforce dans la séquence d'origine et répète le processus de manière itérative jusqu'à ce qu'une condition d'arrêt soit remplie. Cela permet au modèle de générer quoi que ce soit à partir de réponses courtes aux articles entiers.
For a deeper dive into autoregression, check out our recent technical blog post.
Pour une plongée plus profonde dans l'autorégression, consultez notre récent article de blog technique.
Do Generation Errors Compound Exponentially?
Les erreurs de génération se composent-elles de façon exponentielle?
LeCun’s argument can be unpacked as follows:
L'argument de LeCun peut être déballé comme suit:
Let P be the probability of making a generation error at each token.
Soit P la probabilité de faire une erreur de génération à chaque jeton.
For an output of length n, the probability of maintaining coherence is (1-E)^n.
Pour une sortie de longueur n, la probabilité de maintenir la cohérence est (1-e) ^ n.
This leads to LeCun’s conclusion that for sufficiently long responses, the likelihood of maintaining coherence exponentially approaches zero, suggesting that autoregressive LLMs are inherently flawed.
Cela conduit à la conclusion de LeCun que pour des réponses suffisamment longues, la probabilité de maintenir la cohérence s'approche de façon exponentielle zéro, ce qui suggère que les LLM autorégressives sont intrinsèquement défectueuses.
But here’s the problem: E is not constant.
Mais voici le problème: E n'est pas constant.
To put it simply, LeCun’s argument assumes that the probability of making a mistake in each new token is independent. However, LLMs don’t work that way.
Pour le dire simplement, l'argument de LeCun suppose que la probabilité de faire une erreur dans chaque nouveau jeton est indépendante. Cependant, les LLM ne fonctionnent pas de cette façon.
As an analogy to what allows LLMs to overcome this problem, imagine you’re telling a story: if you make a mistake in one sentence, you can still correct it in the next one to keep the narrative coherent. The same applies to LLMs, especially when techniques like Chain-of-Thought (CoT) prompting guide them toward better reasoning by helping them reassess their own outputs along the way.
En analogie avec ce qui permet aux LLMS de surmonter ce problème, imaginez que vous racontez une histoire: si vous faites une erreur en une phrase, vous pouvez toujours le corriger dans le prochain pour garder le récit cohérent. Il en va de même pour les LLM, en particulier lorsque des techniques telles que la chaîne de réflexion (CO) les invitent à les guider vers un meilleur raisonnement en les aidant à réévaluer leurs propres résultats en cours de route.
Why This Assumption is Flawed
Pourquoi cette hypothèse est défectueuse
LLMs exhibit self-correction properties that prevent them from spiraling into incoherence.
Les LLM présentent des propriétés d'auto-correction qui les empêchent de spirale en incohérence.
Take Chain-of-Thought (CoT) prompting, which encourages the model to generate intermediate reasoning steps. CoT allows the model to consider multiple perspectives, improving its ability to converge to an acceptable answer. Similarly, Chain-of-Verification (CoV) and structured feedback mechanisms like ARQs guide the model in reinforcing valid outputs and discarding erroneous ones.
Prenez une invitation à la chaîne de pensées (COT), qui encourage le modèle à générer des étapes de raisonnement intermédiaires. Le COT permet au modèle de considérer plusieurs perspectives, améliorant sa capacité à converger vers une réponse acceptable. De même, la chaîne de vérification (COV) et les mécanismes de rétroaction structurés comme les ARQ guident le modèle pour renforcer les sorties valides et éliminer les ARQ erronées.
A small mistake early on in the generation process doesn’t necessarily doom the final answer. Figuratively speaking, an LLM can double-check its work, backtrack, and correct errors on the go.
Une petite erreur au début du processus de génération ne condamne pas nécessairement la réponse finale. Au sens figuré, un LLM peut revérifier ses travaux, revenir en arrière et corriger les erreurs en déplacement.
Attentive Reasoning Queries (ARQs) are a Game-Changer
Les requêtes de raisonnement attentif (ARQ) changent la donne
At Parlant, we’ve taken this principle further in our work on Attentive Reasoning Queries (a research paper describing our results is currently in the works, but the implementation pattern can be explored in our open-source codebase). ARQs introduce reasoning blueprints that help the model maintain coherence throughout long completions by dynamically refocusing attention on key instructions at strategic points in the completion process, continuously preventing LLMs from diverging into incoherence. Using them, we’ve been able to maintain a large test suite that exhibits close to 100% consistency in generating correct completions for complex tasks.
Chez Parlant, nous avons approfondi ce principe dans nos travaux sur les requêtes de raisonnement attentif (un document de recherche décrivant nos résultats est actuellement en cours, mais le modèle de mise en œuvre peut être exploré dans notre base de code open source). Les ARQ introduisent des plans de raisonnement qui aident le modèle à maintenir la cohérence tout au long de l'achèvement en recentrant dynamiquement l'attention sur les instructions clés à des points stratégiques du processus d'achèvement, empêchant continuellement les LLM de diverger vers l'incohérence. En les utilisant, nous avons pu maintenir une grande suite de test qui présente une cohérence proche de 100% pour générer des compléments corrects pour des tâches complexes.
This technique allows us to achieve much higher accuracy in AI-driven reasoning and instruction-following, which has been critical for us in enabling reliable and aligned customer-facing applications.
Cette technique nous permet d'atteindre une précision beaucoup plus élevée dans le raisonnement et le suivi des instructions basés sur l'IA, ce qui a été critique pour nous pour permettre des applications fiables et alignées sur le client.
Autoregressive Models Are Here to Stay
Les modèles autorégressifs sont là pour rester
We think autoregressive LLMs are far from doomed. While long-form coherence is a challenge, assuming an exponentially compounding error rate ignores key mechanisms that mitigate divergence—from Chain-of-Thought reasoning to structured reasoning like ARQs.
Nous pensons que les LLM autorégressives sont loin d'être condamnées. Bien que la cohérence de la forme longue est un défi, en supposant qu'un taux d'erreur de composition exponentielle ignore les mécanismes clés qui atténuent la divergence - du raisonnement de la chaîne de réflexion au raisonnement structuré comme les ARQ.
If you’re interested in AI alignment and increasing the accuracy of chat agents using LLMs, feel free to explore Parlant’s open-source effort. Let’s continue refining how LLMs generate and structure knowledge.
Si vous êtes intéressé par l'alignement de l'IA et l'augmentation de la précision des agents de chat à l'aide de LLMS, n'hésitez pas à explorer l'effort open-source de Parlant. Continuons à affiner comment les LLM génèrent et structurent les connaissances.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Ethereum est prêt à se redresser alors que les positions longues se consolident dans un contexte de volatilité du marché
- Feb 02, 2026 at 01:49 pm
- Le marché d'Ethereum montre un bras de fer fascinant entre l'hopium et la réalité. À mesure que les positions longues se consolident, le décor est planté pour un potentiel rallye, mais la volatilité reste le maître mot.
-
- Le transfert d'ETH suscite une vente de panique et anéantit un commerçant lors d'un bouleversement majeur de la cryptographie
- Feb 02, 2026 at 12:37 pm
- Un transfert massif d'ETH vers Binance a coïncidé avec la liquidation d'un trader de premier plan, déclenchant des ventes de panique et des milliards de liquidations sur le marché de la cryptographie.
-
- La danse aux enjeux élevés d'Ethereum : Bull Trap ou Supercycle Launchpad ?
- Feb 02, 2026 at 12:21 pm
- La récente résurgence d'Ethereum suscite un débat : est-ce un piège à taureaux ou l'aube d'un supercycle ? Nous analysons la dynamique complexe du marché, de la croissance de niveau 2 aux manœuvres institutionnelles et à la volatilité omniprésente.
-
- La course folle du Bitcoin : le marché de la cryptographie fait face à une baisse des prix dans un contexte de peur extrême et de vents contraires macroéconomiques
- Feb 02, 2026 at 12:01 pm
- Bitcoin se stabilise à près de 77 000 $ dans un contexte de peur extrême, mais la volatilité persiste alors que le marché de la cryptographie est aux prises avec une baisse significative des prix et des pressions macroéconomiques.
-
- Prix du Bitcoin : les prévisions de récupération de 82 000 $ de Jim Cramer enflamment le marché, opposant les spéculations de Saylor à l'effet « Inverse Cramer »
- Feb 02, 2026 at 11:27 am
- La prévision audacieuse du prix Bitcoin de 82 000 $ de Jim Cramer, liée aux actions potentielles de MicroStrategy, suscite le débat. Sa prévision d'une reprise du BTC défiera-t-elle sa réputation à contre-courant, ou l'effet « Cramer inverse » frappera-t-il à nouveau dans un marché volatil ?
-
- Ross Stores domine le commerce de détail à prix réduit grâce à ses prouesses physiques au milieu des changements économiques
- Feb 02, 2026 at 11:19 am
- Ross Stores prospère en maîtrisant le modèle de vente au détail analogique à prix réduit, offrant une valeur attrayante et une expérience de chasse au trésor dans ses emplacements physiques.
-
- Cong, Leviste et DOE Slap : un milliardaire risque une pénalité de 24 milliards de dollars au milieu de promesses en matière d'énergie renouvelable
- Feb 02, 2026 at 11:09 am
- Le député Leandro Leviste aurait contesté une amende massive de 24 milliards de dollars du ministère de l'Énergie, son projet de règlement de 80 millions de dollars étant en cours d'examen.
-
- Les vulnérabilités du Bitcoin révélées lors d'un crash brutal de la cryptographie, mettant en évidence l'immaturité du marché
- Feb 02, 2026 at 10:37 am
- Le fort déclin du Bitcoin révèle de profondes faiblesses structurelles. Explorez les vulnérabilités, les changements institutionnels et la dynamique du marché à l’origine du récent crash de la cryptographie.
-
- Débloquez des fortunes dans votre poche : les pièces britanniques pourraient vous rendre 1 000 £ plus riche
- Feb 02, 2026 at 09:11 am
- Un expert révèle comment certaines pièces d'erreur rares au Royaume-Uni, certaines évaluées à plus de 1 000 £, transforment la monnaie du quotidien en une surprenante quête de richesse.

































