|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Petit modèle, récursif, apprentissage automatique : moins c'est plus ?
Oct 20, 2025 at 02:31 am
Explorer la tendance des modèles minuscules et récursifs dans l'apprentissage automatique, en se concentrant sur TRM et ses implications en termes d'efficacité et de performances.

The world of machine learning is constantly evolving, with researchers always seeking ways to improve performance and efficiency. Lately, there's been buzz around 'Tiny model, recursive, machine learning' approaches. Let's dive into what's shaking in this field.
Le monde de l’apprentissage automatique est en constante évolution, les chercheurs cherchant toujours des moyens d’améliorer les performances et l’efficacité. Dernièrement, il y a eu un buzz autour des approches de « modèle minuscule, récursif, d'apprentissage automatique ». Plongeons dans ce qui bouge dans ce domaine.
The Rise of Tiny Recursive Models
L'essor des petits modèles récursifs
The recent work on TRM (Tiny Recursive Model) is questioning the necessity of complexity. TRM contains 5M-19M parameters, versus 27M in HRM. These models represent a fascinating shift towards simplicity and efficiency, challenging the conventional wisdom that bigger is always better.
Les travaux récents sur le TRM (Tiny Recursive Model) questionnent la nécessité de la complexité. TRM contient 5 M à 19 M de paramètres, contre 27 M dans HRM. Ces modèles représentent un changement fascinant vers la simplicité et l’efficacité, remettant en question l’idée reçue selon laquelle plus grand est toujours mieux.
TRM: A Closer Look
TRM : un examen plus approfondi
TRM simplifies the recursive process, designed with one small network, which is essentially a standard transformer block: [self-attention, norm, MLP, norm]. The model is designed so that there’s one small network, which is essentially a standard transformer block: [self-attention, norm, MLP, norm]. In the original idea, there were 4 such blocks (but after experiments they came to 2).
TRM simplifie le processus récursif, conçu avec un petit réseau, qui est essentiellement un bloc de transformateur standard : [auto-attention, norme, MLP, norme]. Le modèle est conçu de telle sorte qu'il existe un petit réseau, qui est essentiellement un bloc de transformateur standard : [auto-attention, norme, MLP, norme]. Dans l'idée originale, il y avait 4 blocs de ce type (mais après expériences, ils sont arrivés à 2).
At the input, it has three elements: input (x), latent (z), and prediction (y); they’re all summed into one value. The basic iteration, analogous to the L module in HRM, generates a latent value (z, also denoted in the recursion formula as z_L) at the layer output, and the updated z goes back to the module input, where it now adds to input (x) not as zero. The output-prediction (y, also denoted in the formula as z_H) is also added, but since it hasn’t been updated, it doesn’t change anything.
En entrée, il comporte trois éléments : entrée (x), latent (z) et prédiction (y) ; ils sont tous résumés en une seule valeur. L'itération de base, analogue au module L dans HRM, génère une valeur latente (z, également désignée dans la formule de récursion par z_L) à la sortie de la couche, et le z mis à jour retourne à l'entrée du module, où il s'ajoute désormais à l'entrée (x) non pas comme zéro. La prédiction de sortie (y, également notée z_H dans la formule) est également ajoutée, mais comme elle n'a pas été mise à jour, cela ne change rien.
Key Insights and Performance
Informations clés et performances
TRM achieves higher numbers than HRM: 74.7%/87.4% (attention version/MLP version) versus 55% for Sudoku, 85.3% (attention version, MLP version gives 0) versus 74.5% for Maze, 44.6%/29.6% (attn/MLP) versus 40.3% for ARC-AGI-1 and 7.8%/2.4% (attn/MLP) versus 5.0% for ARC-AGI-2. The experiments don’t look very expensive; runtime from <24 hours to about three days maximum on 4*H100 according to the repo.
TRM obtient des chiffres plus élevés que HRM : 74,7%/87,4% (version attention/version MLP) contre 55% pour Sudoku, 85,3% (version attention, version MLP donne 0) contre 74,5% pour Maze, 44,6%/29,6% (attn/MLP) contre 40,3% pour ARC-AGI-1 et 7,8%/2,4% (attn/MLP) contre 5,0 % pour ARC-AGI-2. Les expériences ne semblent pas très coûteuses ; durée d'exécution de <24 heures à environ trois jours maximum sur 4*H100 selon le repo.
My Two Cents
Mes deux cents
While the theoretical underpinnings of why these recursions work so well might not be fully understood yet, the empirical results are hard to ignore. TRM's architectural inventiveness, as opposed to eternal model scaling, is a breath of fresh air. It would be interesting how it would be with dataset scaling.
Même si les fondements théoriques expliquant pourquoi ces récursions fonctionnent si bien ne sont peut-être pas encore entièrement compris, les résultats empiriques sont difficiles à ignorer. L'inventivité architecturale de TRM, par opposition à la mise à l'échelle éternelle des modèles, est une bouffée d'air frais. Il serait intéressant de savoir comment cela se passerait avec la mise à l'échelle des ensembles de données.
Looking Ahead
Regarder vers l'avenir
The journey of 'Tiny model, recursive, machine learning' is just beginning. There's a lot more to explore. So, let's keep an eye on these tiny titans and see where they take us next. Good recursions to everyone!
Le voyage du « petit modèle, récursif, apprentissage automatique » ne fait que commencer. Il y a beaucoup plus à explorer. Alors gardons un œil sur ces petits titans et voyons où ils nous mèneront ensuite. Bonnes récursions à tous !
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Coinbase et Crypto ISAC Forge Alliance, établissant de nouvelles normes en matière de renseignement de sécurité dans le monde des actifs numériques
- Jan 31, 2026 at 01:57 am
- Le nouveau partenariat de Coinbase avec Crypto ISAC marque un moment charnière pour la cybersécurité collective, améliorant le partage de renseignements sur les menaces afin de renforcer l'écosystème des actifs numériques contre les cybermenaces de plus en plus sophistiquées.
-
-
- Bitcoin atteint 83 000 $ au milieu d'une frénésie de vente sans risque, les ETF connaissent des sorties importantes
- Jan 31, 2026 at 01:17 am
- Bitcoin oscille autour de 83 000 $ alors que le sentiment d’aversion au risque déclenche des ventes importantes, les ETF connaissant des sorties importantes et des liquidations croissantes.
-
- Une nouvelle pièce d'un dollar de 2026 met en lumière l'héroïne Oneida Polly Cooper et les premiers alliés de l'Amérique
- Jan 31, 2026 at 01:05 am
- La pièce de 1 $ de la US Mint de 2026 rendra hommage à Polly Cooper, une femme Oneida dont l'aide cruciale à Valley Forge souligne l'héritage durable de la nation Oneida en tant que « premiers alliés de l'Amérique ».
-
- Polly Cooper, femme Oneida, honorée sur une pièce de 1 $ US 2026 pour son héroïsme pendant la guerre révolutionnaire
- Jan 31, 2026 at 01:05 am
- Une nouvelle pièce de 1 $ US mettra en vedette l'héroïne Oneida Polly Cooper, célébrant son rôle vital en aidant les troupes de George Washington pendant la guerre d'indépendance.
-
- L'héroïne Oneida Polly Cooper immortalisée sur une nouvelle pièce de 1 $ : un hommage attendu depuis longtemps à la générosité révolutionnaire
- Jan 31, 2026 at 01:05 am
- La nouvelle pièce de 1 $ de la US Mint représentant l'héroïne d'Oneida, Polly Cooper, célèbre son rôle crucial en aidant les troupes de Washington, consolidant ainsi son héritage dans l'histoire américaine.
-
- Polly Cooper, la femme Oneida, immortalisée sur une nouvelle pièce de 1 $ : un héritage complexe dévoilé
- Jan 31, 2026 at 01:05 am
- Une nouvelle pièce de 1 $ immortalise l'aide vitale apportée par la femme Oneida Polly Cooper à Washington pendant la guerre d'indépendance, suscitant le débat sur les récits historiques.
-
- Prochain acte de XRP : envisagez le support de 1,65 $ alors que les taux de financement clignotent.
- Jan 31, 2026 at 12:20 am
- XRP se trouve à un moment critique, avec des indicateurs techniques indiquant une correction potentielle plus profonde vers le support de 1,65 $, tandis que les taux de financement plus larges du marché suggèrent un sentiment baissier croissant.
-
- Un directeur reconnu coupable d'abus de ceinture contre des garçons de l'école Fife
- Jan 31, 2026 at 12:15 am
- L'ancien directeur Alexander Cameron a été reconnu coupable d'agression pour avoir utilisé une ceinture et d'autres moyens pour punir de jeunes garçons de l'école Ovenstone. L’affaire met en lumière les pratiques historiques de châtiments corporels.

































