Capitalisation boursière: $2.6394T 2.65%
Volume(24h): $142.7242B -19.62%
  • Capitalisation boursière: $2.6394T 2.65%
  • Volume(24h): $142.7242B -19.62%
  • Indice de peur et de cupidité:
  • Capitalisation boursière: $2.6394T 2.65%
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
Top nouvelles
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
bitcoin
bitcoin

$87959.907984 USD

1.34%

ethereum
ethereum

$2920.497338 USD

3.04%

tether
tether

$0.999775 USD

0.00%

xrp
xrp

$2.237324 USD

8.12%

bnb
bnb

$860.243768 USD

0.90%

solana
solana

$138.089498 USD

5.43%

usd-coin
usd-coin

$0.999807 USD

0.01%

tron
tron

$0.272801 USD

-1.53%

dogecoin
dogecoin

$0.150904 USD

2.96%

cardano
cardano

$0.421635 USD

1.97%

hyperliquid
hyperliquid

$32.152445 USD

2.23%

bitcoin-cash
bitcoin-cash

$533.301069 USD

-1.94%

chainlink
chainlink

$12.953417 USD

2.68%

unus-sed-leo
unus-sed-leo

$9.535951 USD

0.73%

zcash
zcash

$521.483386 USD

-2.87%

Articles d’actualité sur les crypto-monnaies

La pensée markovienne rencontre des merveilles d’un million de jetons : la révolution du raisonnement de l’IA

Oct 22, 2025 at 03:11 am

Découvrez comment la pensée markovienne et les fenêtres contextuelles à un million de jetons révolutionnent le raisonnement de l'IA, rendant les capacités avancées de l'IA plus efficaces et plus accessibles.

La pensée markovienne rencontre des merveilles d’un million de jetons : la révolution du raisonnement de l’IA

Markovian Thinking Meets Million-Token Marvels: The AI Reasoning Revolution

La pensée markovienne rencontre des merveilles d’un million de jetons : la révolution du raisonnement de l’IA

The AI landscape is rapidly evolving, with advancements like Markovian Thinking and the advent of million-token context windows reshaping what's possible.

Le paysage de l'IA évolue rapidement, avec des avancées telles que la pensée markovienne et l'avènement de fenêtres contextuelles comportant des millions de jetons qui remodèlent ce qui est possible.

The Rise of Markovian Thinking

L'essor de la pensée markovienne

Researchers at Mila have introduced Markovian Thinking, a novel technique designed to drastically improve the efficiency of large language models (LLMs) when tackling complex reasoning tasks. This approach allows LLMs to engage in extended reasoning processes without the traditionally associated computational costs.

Des chercheurs de Mila ont introduit la pensée markovienne, une nouvelle technique conçue pour améliorer considérablement l'efficacité des grands modèles de langage (LLM) lors de tâches de raisonnement complexes. Cette approche permet aux LLM de s'engager dans des processus de raisonnement étendus sans les coûts de calcul traditionnellement associés.

The core idea behind Markovian Thinking is to structure the reasoning chain into fixed-size chunks, effectively breaking the scaling problem that has plagued long LLM responses. Their implementation, named Delethink, shows promising initial results, estimating a reduction in training costs by over two-thirds for a 1.5B parameter model, compared to standard approaches.

L'idée centrale de la pensée markovienne est de structurer la chaîne de raisonnement en morceaux de taille fixe, résolvant ainsi le problème de mise à l'échelle qui a tourmenté les longues réponses LLM. Leur mise en œuvre, baptisée Delethink, montre des premiers résultats prometteurs, estimant une réduction des coûts de formation de plus des deux tiers pour un modèle de paramètres 1,5B, par rapport aux approches standards.

The Quadratic Curse and the Markovian Solution

La malédiction quadratique et la solution markovienne

The challenge with long-chain reasoning in LLMs stems from the quadratic growth of computational costs as the reasoning chain lengthens. Traditional methods struggle to manage this cost, often limiting the model's ability to think deeply.

Le défi du raisonnement à longue chaîne dans les LLM provient de la croissance quadratique des coûts de calcul à mesure que la chaîne de raisonnement s'allonge. Les méthodes traditionnelles ont du mal à gérer ce coût, limitant souvent la capacité du modèle à réfléchir en profondeur.

Delethink offers a solution by enabling models to reason while maintaining a constant context window size. This is achieved by processing information in fixed-size chunks and using a “carryover” to maintain continuity between chunks. This forces the model to learn how to embed a summary of its progress, or a “textual Markovian state,” into this carryover to continue its reasoning in the next chunk.

Delethink propose une solution en permettant aux modèles de raisonner tout en conservant une taille de fenêtre de contexte constante. Ceci est réalisé en traitant les informations en morceaux de taille fixe et en utilisant un « report » pour maintenir la continuité entre les morceaux. Cela oblige le modèle à apprendre à intégrer un résumé de sa progression, ou un « état markovien textuel », dans ce report pour poursuivre son raisonnement dans la partie suivante.

Million-Token Context Windows: A New Era of Accessibility

Fenêtres contextuelles à un million de jetons : une nouvelle ère d'accessibilité

While Markovian Thinking tackles computational efficiency, another breakthrough is expanding the scope of what AI models can process. Google's Gemini 2.5 Flash Lite 09 offers a staggering 1-million-token context window at a remarkably low cost of $0.40. This leap forward opens doors for detailed, large-scale projects that were previously financially prohibitive.

Alors que la pensée markovienne s’attaque à l’efficacité informatique, une autre avancée majeure consiste à élargir la portée de ce que les modèles d’IA peuvent traiter. Gemini 2.5 Flash Lite 09 de Google offre une fenêtre contextuelle stupéfiante d'un million de jetons pour un coût remarquablement bas de 0,40 $. Ce bond en avant ouvre la porte à des projets détaillés et à grande échelle qui étaient auparavant financièrement prohibitifs.

Gemini 2.5's enhanced reasoning and multimodal functionality are also reshaping workflows across various industries. Its ability to generate precise code and seamlessly integrate text and images makes it a valuable tool for professionals seeking efficiency without compromising quality.

Le raisonnement amélioré et la fonctionnalité multimodale de Gemini 2.5 remodèlent également les flux de travail dans divers secteurs. Sa capacité à générer du code précis et à intégrer de manière transparente du texte et des images en fait un outil précieux pour les professionnels en quête d'efficacité sans compromettre la qualité.

Real-World Applications and the Future of AI

Applications du monde réel et avenir de l’IA

The combination of Markovian Thinking and million-token context windows has far-reaching implications. Imagine AI agents debugging large codebases, reasoning for extended periods, and driving scientific discovery. Gemini 2.5 is already being applied to tasks such as structured coding, web scraping, and creative content generation.

La combinaison de la pensée markovienne et des fenêtres contextuelles comportant un million de jetons a des implications considérables. Imaginez des agents d'IA déboguant de grandes bases de code, raisonnant pendant de longues périodes et favorisant la découverte scientifique. Gemini 2.5 est déjà appliqué à des tâches telles que le codage structuré, le web scraping et la génération de contenu créatif.

The success of Markovian Thinking suggests that next-generation reasoning models may even

Le succès de la pensée markovienne suggère que les modèles de raisonnement de nouvelle génération pourraient même

Source primaire:venturebeat

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres articles publiés sur Feb 03, 2026