![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Articles d’actualité sur les crypto-monnaies
Présentation d'apriel-Nemotron-15b-Thinker: un modèle de raisonnement économe en ressources
May 10, 2025 at 04:39 am
La construction de ces modèles exige l'intégration du raisonnement mathématique, de la compréhension scientifique et de la reconnaissance des modèles avancés.
In today's technological landscape, AI models are expected to perform complex tasks such as solving mathematical problems, interpreting logical statements, and assisting with enterprise decision-making. Building such models requires an integration of mathematical reasoning, scientific understanding, and advanced pattern recognition. As the demand for intelligent agents in real-time applications, like coding assistants and business automation tools, continues to increase, there is a pressing need for models that combine strong performance with efficient memory and token usage, making them viable for deployment in practical hardware environments.
Dans le paysage technologique d'aujourd'hui, les modèles d'IA devraient effectuer des tâches complexes telles que la résolution de problèmes mathématiques, l'interprétation des déclarations logiques et l'aide à la prise de décision d'entreprise. La construction de ces modèles nécessite une intégration du raisonnement mathématique, de la compréhension scientifique et de la reconnaissance avancée des modèles. Comme la demande d'agents intelligents dans des applications en temps réel, comme les assistants de codage et les outils d'automatisation des entreprises, continue d'augmenter, il existe un besoin urgent de modèles qui combinent des performances solides avec une mémoire efficace et une utilisation de jetons, ce qui les rend viables pour le déploiement dans des environnements matériels pratiques.
A central challenge in AI development is the resource intensity of large-scale reasoning models. Despite their impressive capabilities, these models often demand significant memory and computational resources, limiting their real-world applicability. This disparity creates a gap between what advanced models can achieve and what users can realistically deploy. Even well-resourced enterprises may find running models consuming dozens of gigabytes of memory or incurring high inference costs unsustainable. The crux of the issue isn't simply about creating smarter models; it's about ensuring they are efficient and deployable in real-world platforms.
Un défi central dans le développement de l'IA est l'intensité des ressources des modèles de raisonnement à grande échelle. Malgré leurs capacités impressionnantes, ces modèles exigent souvent une mémoire importante et des ressources de calcul, limitant leur applicabilité réelle. Cette disparité crée un écart entre ce que les modèles avancés peuvent atteindre et ce que les utilisateurs peuvent déployer de manière réaliste. Même les entreprises bien ressourcées peuvent trouver des modèles en cours d'exécution consommant des dizaines de gigaoctets de mémoire ou engageant des coûts d'inférence élevés non durables. Le nœud du problème ne consiste pas simplement à créer des modèles plus intelligents; Il s'agit de s'assurer qu'ils sont efficaces et déployables dans les plates-formes du monde réel.
Models like QWQ‑32b, o1‑mini, and EXAONE‑Deep‑32b have demonstrated strong performance on tasks involving mathematical reasoning and academic benchmarks. However, their performance comes at a cost—they require high-end GPUs and consume a high number of tokens, rendering them less suitable for production settings. These models highlight the ongoing trade-off in AI deployment: achieving high accuracy at the expense of scalability and efficiency.
Des modèles tels que QWQ - 32B, O1-Mini et Exaone-Deep - 32B ont démontré de solides performances sur les tâches impliquant un raisonnement mathématique et des références académiques. Cependant, leurs performances ont un coût - elles nécessitent des GPU haut de gamme et consomment un nombre élevé de jetons, ce qui les rend moins adaptés aux paramètres de production. Ces modèles mettent en évidence le compromis en cours dans le déploiement de l'IA: atteindre une grande précision au détriment de l'évolutivité et de l'efficacité.
To address this gap, researchers at ServiceNow introduced Apriel-Nemotron-15b-Thinker. This model, consisting of 15 billion parameters, is relatively modest in size compared to its high-performing counterparts. However, it delivers performance on par with models almost twice its size, and its primary advantage lies in its memory footprint and token efficiency. Despite delivering competitive results, it requires nearly half the memory of QWQ‑32b and EXAONE‑Deep‑32b, and it consumes 40% fewer tokens than QWQ‑32b, rendering it significantly more cost-effective for operational tasks. This difference in operational efficiency is crucial in enterprise environments, rendering it feasible to integrate high-performance reasoning models into real-world applications without large-scale infrastructure upgrades.
Pour combler cette lacune, les chercheurs de ServiceNow ont introduit Aprime-Nemotron-15B-Thinker. Ce modèle, composé de 15 milliards de paramètres, est de taille relativement modeste par rapport à ses homologues hautement performantes. Cependant, il offre des performances à égalité avec les modèles presque le double de sa taille, et son principal avantage réside dans son empreinte mémoire et son efficacité de jeton. Malgré la prestation de résultats compétitifs, il nécessite près de la moitié de la mémoire de QWQ - 32B et ExaOne-Deep-32B, et il consomme 40% de jetons en moins que QWQ-32B, ce qui le rend beaucoup plus rentable pour les tâches opérationnelles. Cette différence d'efficacité opérationnelle est cruciale dans les environnements d'entreprise, ce qui le rend réalisable pour intégrer des modèles de raisonnement à haute performance dans des applications réelles sans mises à niveau d'infrastructure à grande échelle.
The development of Apriel-Nemotron-15b-Thinker followed a structured three-stage training approach, each designed to enhance a specific aspect of the model’s reasoning capabilities. The initial phase, termed Continual Pre-training (CPT), involved exposing the model to over 100 billion tokens. These tokens weren't generic text but carefully selected examples from domains requiring deep reasoning, such as mathematical logic, programming challenges, scientific literature, and logical deduction tasks. This exposure provided the foundational reasoning capabilities that distinguish the model. The second stage involved Supervised Fine-Tuning (SFT) using 200,000 high-quality demonstrations. These examples further calibrated the model’s responses to reasoning challenges, enhancing performance on tasks that require accuracy and attention to detail. The final tuning stage, GRPO (Guided Reinforcement Preference Optimization), refined the model’s outputs by optimizing alignment with expected results across key tasks. This pipeline ensures the model is not only intelligent but also responds in a manner that is concise, structured, and scalable.
Le développement de l'apriel-Nemotron-15b-Thinker a suivi une approche de formation structurée en trois étapes, chacune conçue pour améliorer un aspect spécifique des capacités de raisonnement du modèle. La phase initiale, appelée pré-formation continue (CPT), a consisté à exposer le modèle à plus de 100 milliards de jetons. Ces jetons n'étaient pas du texte générique mais des exemples soigneusement sélectionnés à partir de domaines nécessitant un raisonnement profond, tel que la logique mathématique, les défis de programmation, la littérature scientifique et les tâches de déduction logique. Cette exposition a fourni les capacités de raisonnement fondamental qui distinguent le modèle. La deuxième étape impliquait un réglage fin supervisé (SFT) en utilisant 200 000 démonstrations de haute qualité. Ces exemples ont en outre calibré les réponses du modèle aux défis du raisonnement, améliorant les performances des tâches qui nécessitent une précision et une attention aux détails. L'étape de réglage final, GRPO (optimisation des préférences de renforcement guidée), a affiné les sorties du modèle en optimisant l'alignement avec les résultats attendus sur les tâches clés. Ce pipeline garantit que le modèle est non seulement intelligent, mais répond également d'une manière concise, structurée et évolutive.
In enterprise-specific tasks such as MBPP, BFCL, Enterprise RAG, MT Bench, MixEval, IFEval, and Multi-Challenge, the model delivered competitive or superior performance compared to larger models. It also performed admirably in academic benchmarks, such as AIME-24, AIME-25, AMC-23, MATH-500, and GPQA, often equaling or surpassing the performance of other larger models, all while being significantly lighter in computational demand.
Dans les tâches spécifiques à l'entreprise telles que le MBPP, le BFCL, le chiffon d'entreprise, le banc MT, le mixval, l'ifeval et le multi-contestation, le modèle a fourni des performances compétitives ou supérieures par rapport aux modèles plus grands. Il a également admirablement joué dans des repères académiques, tels que AIME-24, AIME-25, AMC-23, MATH-500 et GPQA, égalant ou dépassant souvent les performances d'autres modèles plus grands, tout en étant considérablement plus léger dans la demande informatique.
Apriel-Nemotron-15b-Thinker demonstrates that achieving both high performance and efficiency in large language models is possible. As the demand for intelligent and deployable agents continues to rise, models like Apriel-Nemotron-15b-Thinker highlight the potential for pushing the boundaries of AI while ensuring it remains relevant and applicable in real-world settings. Several Key Takeaways from the Research on Apriel-Nemotron-15b-Thinker:This model is capable of performing on par with models almost twice its size. It achieves this performance with a lower memory footprint and token consumption compared to QWQ-32b and EXAONE-Deep-32b. It is interesting to note that it performs better than o1-mini on AIME-24, AIME-25, and AMC-23, despite being a smaller model.
Aprime-Nemotron-15B-Thinker démontre que la réalisation de performances et d'efficacité élevées dans les modèles de grande langue est possible. Alors que la demande d'agents intelligents et déployables continue d'augmenter, des modèles comme Aprime-Nemotron-15B-Thinker mettent en évidence le potentiel de repousser les limites de l'IA tout en garantissant qu'elle reste pertinente et applicable dans les contextes réels. Plusieurs plats clés à partir des recherches sur l'apriel-Nemotron-15b-Thinker: ce modèle est capable de fonctionner à égalité avec les modèles presque le double de sa taille. Il réalise ces performances avec une empreinte mémoire plus faible et une consommation de jetons par rapport à QWQ-32B et ExaOne-Deep-32B. Il est intéressant de noter qu'il fonctionne mieux que O1-MINI sur AIME-24, AIME-25 et AMC-23, bien qu'il soit un modèle plus petit.
The researchers used a structured three-stage training approach to develop the model. The initial stage involved exposing the model to over 100 billion tokens from domains that require deep reasoning, such as mathematical logic, programming challenges, and logical deduction tasks.
Les chercheurs ont utilisé une approche de formation structurée en trois étapes pour développer le modèle. L'étape initiale a consisté à exposer le modèle à plus de 100 milliards de jetons à partir de domaines qui nécessitent un raisonnement profond, tel que la logique mathématique, les défis de programmation et les tâches de déduction logique.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Solana a enfilé un nouveau débat sur l'ordre hiérarchique des plates-formes de contrat intelligentes
- May 10, 2025 at 11:20 am
- Sygnim, le groupe bancaire numérique-actif à réglemente suisse et à Singapour, a déclenché un nouveau débat sur l'ordre hiérarchique des plates-formes de contrat intelligentes
-
-
- Le prix XRP dépasse 2,42 $ alors que Ripple a atteint un règlement final de 50 millions de dollars, mettant fin à son combat de longue date avec la SEC américaine
- May 10, 2025 at 11:15 am
- Le Token natif de Ripple, XRP, a grimpé à un maximum de 50 jours de 2,42 $ vendredi, marquant une étape clé dans son rebond prolongé.
-
-
-
-
-
- STELLAR (XLM) Prédiction des prix 2025-2030: Le prix XLM aura-t-il bientôt atteint 1,5 $?
- May 10, 2025 at 11:05 am
- Stellar (XLM) montre des signes d'une forte évasion technique, attirant l'attention des commerçants et des analystes. Une action récente des prix suggère qu'un renversement haussier pourrait être en cours.
-
- Binance Coin (BNB) Prix monte de 10% à 642,92 $ après une proposition de réduction des frais de gaz à 90%
- May 10, 2025 at 11:00 am
- Le 9 mai, Binance Coin (BNB) a grimpé à 642,92 $, augmentant de plus de 10% en 24 heures. Le rallye des prix a suivi une proposition du fondateur de Binance Changpeng Zhao (CZ) pour réduire les frais de gaz sur Binance Smart Chain (BSC) de 90%.