Capitalisation boursière: $3.2675T 1.270%
Volume(24h): $174.7923B 7.320%
  • Capitalisation boursière: $3.2675T 1.270%
  • Volume(24h): $174.7923B 7.320%
  • Indice de peur et de cupidité:
  • Capitalisation boursière: $3.2675T 1.270%
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
Top nouvelles
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
bitcoin
bitcoin

$103004.520244 USD

0.29%

ethereum
ethereum

$2334.281785 USD

4.31%

tether
tether

$1.000092 USD

0.02%

xrp
xrp

$2.364665 USD

1.85%

bnb
bnb

$662.060453 USD

5.70%

solana
solana

$171.809559 USD

5.47%

usd-coin
usd-coin

$0.999992 USD

0.00%

dogecoin
dogecoin

$0.207892 USD

5.67%

cardano
cardano

$0.781885 USD

1.36%

tron
tron

$0.263478 USD

2.88%

sui
sui

$3.951170 USD

-0.41%

chainlink
chainlink

$16.044806 USD

0.87%

avalanche
avalanche

$23.465633 USD

4.94%

stellar
stellar

$0.299732 USD

1.23%

shiba-inu
shiba-inu

$0.000015 USD

4.98%

Articles d’actualité sur les crypto-monnaies

Présentation d'apriel-Nemotron-15b-Thinker: un modèle de raisonnement économe en ressources

May 10, 2025 at 04:39 am

La construction de ces modèles exige l'intégration du raisonnement mathématique, de la compréhension scientifique et de la reconnaissance des modèles avancés.

Présentation d'apriel-Nemotron-15b-Thinker: un modèle de raisonnement économe en ressources

In today's technological landscape, AI models are expected to perform complex tasks such as solving mathematical problems, interpreting logical statements, and assisting with enterprise decision-making. Building such models requires an integration of mathematical reasoning, scientific understanding, and advanced pattern recognition. As the demand for intelligent agents in real-time applications, like coding assistants and business automation tools, continues to increase, there is a pressing need for models that combine strong performance with efficient memory and token usage, making them viable for deployment in practical hardware environments.

Dans le paysage technologique d'aujourd'hui, les modèles d'IA devraient effectuer des tâches complexes telles que la résolution de problèmes mathématiques, l'interprétation des déclarations logiques et l'aide à la prise de décision d'entreprise. La construction de ces modèles nécessite une intégration du raisonnement mathématique, de la compréhension scientifique et de la reconnaissance avancée des modèles. Comme la demande d'agents intelligents dans des applications en temps réel, comme les assistants de codage et les outils d'automatisation des entreprises, continue d'augmenter, il existe un besoin urgent de modèles qui combinent des performances solides avec une mémoire efficace et une utilisation de jetons, ce qui les rend viables pour le déploiement dans des environnements matériels pratiques.

A central challenge in AI development is the resource intensity of large-scale reasoning models. Despite their impressive capabilities, these models often demand significant memory and computational resources, limiting their real-world applicability. This disparity creates a gap between what advanced models can achieve and what users can realistically deploy. Even well-resourced enterprises may find running models consuming dozens of gigabytes of memory or incurring high inference costs unsustainable. The crux of the issue isn't simply about creating smarter models; it's about ensuring they are efficient and deployable in real-world platforms.

Un défi central dans le développement de l'IA est l'intensité des ressources des modèles de raisonnement à grande échelle. Malgré leurs capacités impressionnantes, ces modèles exigent souvent une mémoire importante et des ressources de calcul, limitant leur applicabilité réelle. Cette disparité crée un écart entre ce que les modèles avancés peuvent atteindre et ce que les utilisateurs peuvent déployer de manière réaliste. Même les entreprises bien ressourcées peuvent trouver des modèles en cours d'exécution consommant des dizaines de gigaoctets de mémoire ou engageant des coûts d'inférence élevés non durables. Le nœud du problème ne consiste pas simplement à créer des modèles plus intelligents; Il s'agit de s'assurer qu'ils sont efficaces et déployables dans les plates-formes du monde réel.

Models like QWQ‑32b, o1‑mini, and EXAONE‑Deep‑32b have demonstrated strong performance on tasks involving mathematical reasoning and academic benchmarks. However, their performance comes at a cost—they require high-end GPUs and consume a high number of tokens, rendering them less suitable for production settings. These models highlight the ongoing trade-off in AI deployment: achieving high accuracy at the expense of scalability and efficiency.

Des modèles tels que QWQ - 32B, O1-Mini et Exaone-Deep - 32B ont démontré de solides performances sur les tâches impliquant un raisonnement mathématique et des références académiques. Cependant, leurs performances ont un coût - elles nécessitent des GPU haut de gamme et consomment un nombre élevé de jetons, ce qui les rend moins adaptés aux paramètres de production. Ces modèles mettent en évidence le compromis en cours dans le déploiement de l'IA: atteindre une grande précision au détriment de l'évolutivité et de l'efficacité.

To address this gap, researchers at ServiceNow introduced Apriel-Nemotron-15b-Thinker. This model, consisting of 15 billion parameters, is relatively modest in size compared to its high-performing counterparts. However, it delivers performance on par with models almost twice its size, and its primary advantage lies in its memory footprint and token efficiency. Despite delivering competitive results, it requires nearly half the memory of QWQ‑32b and EXAONE‑Deep‑32b, and it consumes 40% fewer tokens than QWQ‑32b, rendering it significantly more cost-effective for operational tasks. This difference in operational efficiency is crucial in enterprise environments, rendering it feasible to integrate high-performance reasoning models into real-world applications without large-scale infrastructure upgrades.

Pour combler cette lacune, les chercheurs de ServiceNow ont introduit Aprime-Nemotron-15B-Thinker. Ce modèle, composé de 15 milliards de paramètres, est de taille relativement modeste par rapport à ses homologues hautement performantes. Cependant, il offre des performances à égalité avec les modèles presque le double de sa taille, et son principal avantage réside dans son empreinte mémoire et son efficacité de jeton. Malgré la prestation de résultats compétitifs, il nécessite près de la moitié de la mémoire de QWQ - 32B et ExaOne-Deep-32B, et il consomme 40% de jetons en moins que QWQ-32B, ce qui le rend beaucoup plus rentable pour les tâches opérationnelles. Cette différence d'efficacité opérationnelle est cruciale dans les environnements d'entreprise, ce qui le rend réalisable pour intégrer des modèles de raisonnement à haute performance dans des applications réelles sans mises à niveau d'infrastructure à grande échelle.

The development of Apriel-Nemotron-15b-Thinker followed a structured three-stage training approach, each designed to enhance a specific aspect of the model’s reasoning capabilities. The initial phase, termed Continual Pre-training (CPT), involved exposing the model to over 100 billion tokens. These tokens weren't generic text but carefully selected examples from domains requiring deep reasoning, such as mathematical logic, programming challenges, scientific literature, and logical deduction tasks. This exposure provided the foundational reasoning capabilities that distinguish the model. The second stage involved Supervised Fine-Tuning (SFT) using 200,000 high-quality demonstrations. These examples further calibrated the model’s responses to reasoning challenges, enhancing performance on tasks that require accuracy and attention to detail. The final tuning stage, GRPO (Guided Reinforcement Preference Optimization), refined the model’s outputs by optimizing alignment with expected results across key tasks. This pipeline ensures the model is not only intelligent but also responds in a manner that is concise, structured, and scalable.

Le développement de l'apriel-Nemotron-15b-Thinker a suivi une approche de formation structurée en trois étapes, chacune conçue pour améliorer un aspect spécifique des capacités de raisonnement du modèle. La phase initiale, appelée pré-formation continue (CPT), a consisté à exposer le modèle à plus de 100 milliards de jetons. Ces jetons n'étaient pas du texte générique mais des exemples soigneusement sélectionnés à partir de domaines nécessitant un raisonnement profond, tel que la logique mathématique, les défis de programmation, la littérature scientifique et les tâches de déduction logique. Cette exposition a fourni les capacités de raisonnement fondamental qui distinguent le modèle. La deuxième étape impliquait un réglage fin supervisé (SFT) en utilisant 200 000 démonstrations de haute qualité. Ces exemples ont en outre calibré les réponses du modèle aux défis du raisonnement, améliorant les performances des tâches qui nécessitent une précision et une attention aux détails. L'étape de réglage final, GRPO (optimisation des préférences de renforcement guidée), a affiné les sorties du modèle en optimisant l'alignement avec les résultats attendus sur les tâches clés. Ce pipeline garantit que le modèle est non seulement intelligent, mais répond également d'une manière concise, structurée et évolutive.

In enterprise-specific tasks such as MBPP, BFCL, Enterprise RAG, MT Bench, MixEval, IFEval, and Multi-Challenge, the model delivered competitive or superior performance compared to larger models. It also performed admirably in academic benchmarks, such as AIME-24, AIME-25, AMC-23, MATH-500, and GPQA, often equaling or surpassing the performance of other larger models, all while being significantly lighter in computational demand.

Dans les tâches spécifiques à l'entreprise telles que le MBPP, le BFCL, le chiffon d'entreprise, le banc MT, le mixval, l'ifeval et le multi-contestation, le modèle a fourni des performances compétitives ou supérieures par rapport aux modèles plus grands. Il a également admirablement joué dans des repères académiques, tels que AIME-24, AIME-25, AMC-23, MATH-500 et GPQA, égalant ou dépassant souvent les performances d'autres modèles plus grands, tout en étant considérablement plus léger dans la demande informatique.

Apriel-Nemotron-15b-Thinker demonstrates that achieving both high performance and efficiency in large language models is possible. As the demand for intelligent and deployable agents continues to rise, models like Apriel-Nemotron-15b-Thinker highlight the potential for pushing the boundaries of AI while ensuring it remains relevant and applicable in real-world settings. Several Key Takeaways from the Research on Apriel-Nemotron-15b-Thinker:This model is capable of performing on par with models almost twice its size. It achieves this performance with a lower memory footprint and token consumption compared to QWQ-32b and EXAONE-Deep-32b. It is interesting to note that it performs better than o1-mini on AIME-24, AIME-25, and AMC-23, despite being a smaller model.

Aprime-Nemotron-15B-Thinker démontre que la réalisation de performances et d'efficacité élevées dans les modèles de grande langue est possible. Alors que la demande d'agents intelligents et déployables continue d'augmenter, des modèles comme Aprime-Nemotron-15B-Thinker mettent en évidence le potentiel de repousser les limites de l'IA tout en garantissant qu'elle reste pertinente et applicable dans les contextes réels. Plusieurs plats clés à partir des recherches sur l'apriel-Nemotron-15b-Thinker: ce modèle est capable de fonctionner à égalité avec les modèles presque le double de sa taille. Il réalise ces performances avec une empreinte mémoire plus faible et une consommation de jetons par rapport à QWQ-32B et ExaOne-Deep-32B. Il est intéressant de noter qu'il fonctionne mieux que O1-MINI sur AIME-24, AIME-25 et AMC-23, bien qu'il soit un modèle plus petit.

The researchers used a structured three-stage training approach to develop the model. The initial stage involved exposing the model to over 100 billion tokens from domains that require deep reasoning, such as mathematical logic, programming challenges, and logical deduction tasks.

Les chercheurs ont utilisé une approche de formation structurée en trois étapes pour développer le modèle. L'étape initiale a consisté à exposer le modèle à plus de 100 milliards de jetons à partir de domaines qui nécessitent un raisonnement profond, tel que la logique mathématique, les défis de programmation et les tâches de déduction logique.

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres articles publiés sur May 10, 2025