|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Petit modèle, récursif, apprentissage automatique : moins c'est plus ?
Oct 20, 2025 at 02:31 am
Explorer la tendance des modèles minuscules et récursifs dans l'apprentissage automatique, en se concentrant sur TRM et ses implications en termes d'efficacité et de performances.

The world of machine learning is constantly evolving, with researchers always seeking ways to improve performance and efficiency. Lately, there's been buzz around 'Tiny model, recursive, machine learning' approaches. Let's dive into what's shaking in this field.
Le monde de l’apprentissage automatique est en constante évolution, les chercheurs cherchant toujours des moyens d’améliorer les performances et l’efficacité. Dernièrement, il y a eu un buzz autour des approches de « modèle minuscule, récursif, d'apprentissage automatique ». Plongeons dans ce qui bouge dans ce domaine.
The Rise of Tiny Recursive Models
L'essor des petits modèles récursifs
The recent work on TRM (Tiny Recursive Model) is questioning the necessity of complexity. TRM contains 5M-19M parameters, versus 27M in HRM. These models represent a fascinating shift towards simplicity and efficiency, challenging the conventional wisdom that bigger is always better.
Les travaux récents sur le TRM (Tiny Recursive Model) questionnent la nécessité de la complexité. TRM contient 5 M à 19 M de paramètres, contre 27 M dans HRM. Ces modèles représentent un changement fascinant vers la simplicité et l’efficacité, remettant en question l’idée reçue selon laquelle plus grand est toujours mieux.
TRM: A Closer Look
TRM : un examen plus approfondi
TRM simplifies the recursive process, designed with one small network, which is essentially a standard transformer block: [self-attention, norm, MLP, norm]. The model is designed so that there’s one small network, which is essentially a standard transformer block: [self-attention, norm, MLP, norm]. In the original idea, there were 4 such blocks (but after experiments they came to 2).
TRM simplifie le processus récursif, conçu avec un petit réseau, qui est essentiellement un bloc de transformateur standard : [auto-attention, norme, MLP, norme]. Le modèle est conçu de telle sorte qu'il existe un petit réseau, qui est essentiellement un bloc de transformateur standard : [auto-attention, norme, MLP, norme]. Dans l'idée originale, il y avait 4 blocs de ce type (mais après expériences, ils sont arrivés à 2).
At the input, it has three elements: input (x), latent (z), and prediction (y); they’re all summed into one value. The basic iteration, analogous to the L module in HRM, generates a latent value (z, also denoted in the recursion formula as z_L) at the layer output, and the updated z goes back to the module input, where it now adds to input (x) not as zero. The output-prediction (y, also denoted in the formula as z_H) is also added, but since it hasn’t been updated, it doesn’t change anything.
En entrée, il comporte trois éléments : entrée (x), latent (z) et prédiction (y) ; ils sont tous résumés en une seule valeur. L'itération de base, analogue au module L dans HRM, génère une valeur latente (z, également désignée dans la formule de récursion par z_L) à la sortie de la couche, et le z mis à jour retourne à l'entrée du module, où il s'ajoute désormais à l'entrée (x) non pas comme zéro. La prédiction de sortie (y, également notée z_H dans la formule) est également ajoutée, mais comme elle n'a pas été mise à jour, cela ne change rien.
Key Insights and Performance
Informations clés et performances
TRM achieves higher numbers than HRM: 74.7%/87.4% (attention version/MLP version) versus 55% for Sudoku, 85.3% (attention version, MLP version gives 0) versus 74.5% for Maze, 44.6%/29.6% (attn/MLP) versus 40.3% for ARC-AGI-1 and 7.8%/2.4% (attn/MLP) versus 5.0% for ARC-AGI-2. The experiments don’t look very expensive; runtime from <24 hours to about three days maximum on 4*H100 according to the repo.
TRM obtient des chiffres plus élevés que HRM : 74,7%/87,4% (version attention/version MLP) contre 55% pour Sudoku, 85,3% (version attention, version MLP donne 0) contre 74,5% pour Maze, 44,6%/29,6% (attn/MLP) contre 40,3% pour ARC-AGI-1 et 7,8%/2,4% (attn/MLP) contre 5,0 % pour ARC-AGI-2. Les expériences ne semblent pas très coûteuses ; durée d'exécution de <24 heures à environ trois jours maximum sur 4*H100 selon le repo.
My Two Cents
Mes deux cents
While the theoretical underpinnings of why these recursions work so well might not be fully understood yet, the empirical results are hard to ignore. TRM's architectural inventiveness, as opposed to eternal model scaling, is a breath of fresh air. It would be interesting how it would be with dataset scaling.
Même si les fondements théoriques expliquant pourquoi ces récursions fonctionnent si bien ne sont peut-être pas encore entièrement compris, les résultats empiriques sont difficiles à ignorer. L'inventivité architecturale de TRM, par opposition à la mise à l'échelle éternelle des modèles, est une bouffée d'air frais. Il serait intéressant de savoir comment cela se passerait avec la mise à l'échelle des ensembles de données.
Looking Ahead
Regarder vers l'avenir
The journey of 'Tiny model, recursive, machine learning' is just beginning. There's a lot more to explore. So, let's keep an eye on these tiny titans and see where they take us next. Good recursions to everyone!
Le voyage du « petit modèle, récursif, apprentissage automatique » ne fait que commencer. Il y a beaucoup plus à explorer. Alors gardons un œil sur ces petits titans et voyons où ils nous mèneront ensuite. Bonnes récursions à tous !
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Moment de croisement de Crypto : parachutages, jetons et chemin vers l'introduction en bourse
- Feb 10, 2026 at 02:03 am
- Le paysage cryptographique est en effervescence avec des changements transformateurs. Des lancements de jetons stratégiques aux projets d’introduction en bourse ambitieux, le secteur trace la voie vers une intégration financière traditionnelle.
-
- Les acheteurs d'Axie Infinity alimentent le marché avec le nouveau largage de jetons bAXS et la résurgence technique
- Feb 10, 2026 at 01:31 am
- Axie Infinity voit un bond significatif du marché à mesure que les acheteurs affluent, tirés par un nouveau largage de jetons bAXS et des indicateurs techniques favorables. Explorez les dernières dynamiques.
-
- Les agitations liées au stationnement de pièces de monnaie au Japon mènent à une arrestation après six ans
- Feb 10, 2026 at 01:30 am
- Au Japon, le stationnement prolongé d'un homme avec pièces de monnaie a donné lieu à une arrestation, mettant en lumière des défis juridiques et pratiques inhabituels. Lisez le dernier.
-
- Mark Yusko prédit la trajectoire des prix du Bitcoin vers 2026 au milieu de l'hiver cryptographique et de l'évolution de la dynamique du marché
- Feb 10, 2026 at 12:28 am
- Mark Yusko discute de la nature cyclique du Bitcoin, de son impact institutionnel et de son potentiel de prix jusqu'en 2026, dans le contexte actuel de l'hiver crypto. Aperçu des marchés à terme et de la psychologie des investisseurs.
-
-
- Augmentation des avoirs en Bitcoin : les signaux d'achat de 90 millions de dollars de la stratégie renforcent la conviction institutionnelle
- Feb 10, 2026 at 12:24 am
- Strategy et d'autres acteurs majeurs augmentent considérablement leurs réserves de Bitcoin, la récente acquisition de Strategy pour 90 millions de dollars mettant en évidence une vision audacieuse à long terme.
-
- Le PDG de BlackRock considère la crypto comme la prochaine frontière de la finance mondiale, tandis que les institutions naviguent dans les actifs numériques
- Feb 10, 2026 at 12:15 am
- Le PDG de BlackRock, Larry Fink, présente la crypto comme l'avenir de la finance mondiale, alors que des institutions comme BlackRock elle-même et Circle tracent la voie dans le paysage en évolution des actifs numériques.
-
- Cango Stock, BTC Miner, avoirs vendus : un bond de 305 millions de dollars dans l'IA inconnue
- Feb 09, 2026 at 11:39 pm
- Cango vient de se débarrasser de 305 millions de dollars en Bitcoin, marquant un changement radical du minage de crypto-monnaie vers l'infrastructure d'IA, dans le but de renforcer son bilan et de profiter du boom technologique.
-
- Le développement des cryptomonnaies entre dans une nouvelle ère : la quête d’une véritable adoption s’intensifie
- Feb 09, 2026 at 11:36 pm
- Le développement des crypto-monnaies en 2026 passe du battage médiatique à l’utilité tangible, en mettant l’accent sur une infrastructure robuste, la conformité réglementaire et une intégration transparente pour une adoption dans le monde réel.

































