時価総額: $3.2675T 1.270%
ボリューム(24時間): $174.7923B 7.320%
  • 時価総額: $3.2675T 1.270%
  • ボリューム(24時間): $174.7923B 7.320%
  • 恐怖と貪欲の指数:
  • 時価総額: $3.2675T 1.270%
暗号
トピック
暗号化
ニュース
暗号造園
動画
トップニュース
暗号
トピック
暗号化
ニュース
暗号造園
動画
bitcoin
bitcoin

$103004.520244 USD

0.29%

ethereum
ethereum

$2334.281785 USD

4.31%

tether
tether

$1.000092 USD

0.02%

xrp
xrp

$2.364665 USD

1.85%

bnb
bnb

$662.060453 USD

5.70%

solana
solana

$171.809559 USD

5.47%

usd-coin
usd-coin

$0.999992 USD

0.00%

dogecoin
dogecoin

$0.207892 USD

5.67%

cardano
cardano

$0.781885 USD

1.36%

tron
tron

$0.263478 USD

2.88%

sui
sui

$3.951170 USD

-0.41%

chainlink
chainlink

$16.044806 USD

0.87%

avalanche
avalanche

$23.465633 USD

4.94%

stellar
stellar

$0.299732 USD

1.23%

shiba-inu
shiba-inu

$0.000015 USD

4.98%

暗号通貨のニュース記事

Apriel-Nemotron-15B-Thinkerの導入:リソース効率の高い推論モデル

2025/05/10 04:39

このようなモデルを構築するには、数学的推論、科学的理解、高度なパターン認識の統合が必要です。

Apriel-Nemotron-15B-Thinkerの導入:リソース効率の高い推論モデル

In today's technological landscape, AI models are expected to perform complex tasks such as solving mathematical problems, interpreting logical statements, and assisting with enterprise decision-making. Building such models requires an integration of mathematical reasoning, scientific understanding, and advanced pattern recognition. As the demand for intelligent agents in real-time applications, like coding assistants and business automation tools, continues to increase, there is a pressing need for models that combine strong performance with efficient memory and token usage, making them viable for deployment in practical hardware environments.

今日の技術的景観では、AIモデルは、数学的な問題の解決、論理ステートメントの解釈、企業の意思決定の支援などの複雑なタスクを実行することが期待されています。このようなモデルを構築するには、数学的推論、科学的理解、および高度なパターン認識の統合が必要です。コーディングアシスタントやビジネスオートメーションツールなどのリアルタイムアプリケーションでのインテリジェントエージェントの需要は増加し続けているため、強力なパフォーマンスと効率的なメモリおよびトークンの使用を組み合わせたモデルが緊急の必要性があり、実際のハードウェア環境での展開に実行可能になります。

A central challenge in AI development is the resource intensity of large-scale reasoning models. Despite their impressive capabilities, these models often demand significant memory and computational resources, limiting their real-world applicability. This disparity creates a gap between what advanced models can achieve and what users can realistically deploy. Even well-resourced enterprises may find running models consuming dozens of gigabytes of memory or incurring high inference costs unsustainable. The crux of the issue isn't simply about creating smarter models; it's about ensuring they are efficient and deployable in real-world platforms.

AI開発における中心的な課題は、大規模な推論モデルのリソース強度です。印象的な能力にもかかわらず、これらのモデルは多くの場合、重要なメモリと計算リソースを要求し、実際の適用性を制限します。この格差は、高度なモデルが達成できるものと、ユーザーが現実的に展開できるものとの間にギャップを作成します。リソースのある企業でさえ、ランニングモデルが数十ギガバイトのメモリを消費したり、持続不可能な高い推論コストを供給したりすることに気付くかもしれません。この問題の核心は、よりスマートなモデルの作成だけではありません。実世界のプラットフォームで効率的で展開できるようにすることです。

Models like QWQ‑32b, o1‑mini, and EXAONE‑Deep‑32b have demonstrated strong performance on tasks involving mathematical reasoning and academic benchmarks. However, their performance comes at a cost—they require high-end GPUs and consume a high number of tokens, rendering them less suitable for production settings. These models highlight the ongoing trade-off in AI deployment: achieving high accuracy at the expense of scalability and efficiency.

QWQ ‑ 32B、O1 ‑ MINI、EXAONE -DEEP ‑ 32Bなどのモデルは、数学的推論とアカデミックベンチマークを含むタスクの強力なパフォーマンスを実証しています。ただし、パフォーマンスにはコストがかかります。ハイエンドGPUを必要とし、多数のトークンを消費するため、生産設定にはそれほど適していません。これらのモデルは、AIの展開における進行中のトレードオフを強調しています。スケーラビリティと効率を犠牲にして高精度を達成します。

To address this gap, researchers at ServiceNow introduced Apriel-Nemotron-15b-Thinker. This model, consisting of 15 billion parameters, is relatively modest in size compared to its high-performing counterparts. However, it delivers performance on par with models almost twice its size, and its primary advantage lies in its memory footprint and token efficiency. Despite delivering competitive results, it requires nearly half the memory of QWQ‑32b and EXAONE‑Deep‑32b, and it consumes 40% fewer tokens than QWQ‑32b, rendering it significantly more cost-effective for operational tasks. This difference in operational efficiency is crucial in enterprise environments, rendering it feasible to integrate high-performance reasoning models into real-world applications without large-scale infrastructure upgrades.

このギャップに対処するために、ServiceNowの研究者はApriel-Nemotron-15B-Thinkerを導入しました。このモデルは、150億のパラメーターで構成されており、その高性能なカウンターパートと比較して、比較的控えめなサイズです。ただし、そのサイズのほぼ2倍のモデルと同等のパフォーマンスを提供し、その主な利点はメモリフットプリントとトークンの効率にあります。競争上の結果を提供しているにもかかわらず、QWQ ‑ 32BとEXAONE-DEEP ‑ 32Bのメモリのほぼ半分が必要であり、QWQ ‑ 32Bよりも40%少ないトークンを消費するため、運用タスクの費用対効果が大幅に向上します。エンタープライズ環境では、運用効率のこの違いが重要であり、大規模なインフラストラクチャのアップグレードなしで高性能推論モデルを実際のアプリケーションに統合することが可能になります。

The development of Apriel-Nemotron-15b-Thinker followed a structured three-stage training approach, each designed to enhance a specific aspect of the model’s reasoning capabilities. The initial phase, termed Continual Pre-training (CPT), involved exposing the model to over 100 billion tokens. These tokens weren't generic text but carefully selected examples from domains requiring deep reasoning, such as mathematical logic, programming challenges, scientific literature, and logical deduction tasks. This exposure provided the foundational reasoning capabilities that distinguish the model. The second stage involved Supervised Fine-Tuning (SFT) using 200,000 high-quality demonstrations. These examples further calibrated the model’s responses to reasoning challenges, enhancing performance on tasks that require accuracy and attention to detail. The final tuning stage, GRPO (Guided Reinforcement Preference Optimization), refined the model’s outputs by optimizing alignment with expected results across key tasks. This pipeline ensures the model is not only intelligent but also responds in a manner that is concise, structured, and scalable.

Apriel-Nemotron-15B-Thinkerの開発は、構造化された3段階トレーニングアプローチに続き、それぞれがモデルの推論機能の特定の側面を強化するように設計されています。継続的なトレーニング(CPT)と呼ばれる初期段階では、モデルを1,000億を超えるトークンにさらすことが含まれていました。これらのトークンは一般的なテキストではありませんでしたが、数学的論理、プログラミングの課題、科学文献、論理控除タスクなど、深い推論を必要とするドメインから慎重に選択された例です。この露出は、モデルを区別する基本的な推論機能を提供しました。第2段階では、200,000の高品質のデモンストレーションを使用した監視付き微調整(SFT)が含まれていました。これらの例は、推論の課題に対するモデルの応答をさらに調整し、正確性と細部への注意を必要とするタスクのパフォーマンスを向上させました。最終チューニング段階であるGRPO(ガイド付き強化選好最適化)は、重要なタスク全体で予想される結果とアライメントを最適化することにより、モデルの出力を改良しました。このパイプラインは、モデルがインテリジェントであるだけでなく、簡潔で構造化され、スケーラブルな方法で応答することを保証します。

In enterprise-specific tasks such as MBPP, BFCL, Enterprise RAG, MT Bench, MixEval, IFEval, and Multi-Challenge, the model delivered competitive or superior performance compared to larger models. It also performed admirably in academic benchmarks, such as AIME-24, AIME-25, AMC-23, MATH-500, and GPQA, often equaling or surpassing the performance of other larger models, all while being significantly lighter in computational demand.

MBPP、BFCL、エンタープライズラグ、MTベンチ、Mixeval、Ifeval、Multi-Challengeなどのエンタープライズ固有のタスクでは、モデルは、より大きなモデルと比較して競争力のあるまたは優れたパフォーマンスを提供しました。また、AIME-24、AIME-25、AMC-23、MATH-500、GPQAなどのアカデミックベンチマークで見事に機能し、他のより大きなモデルのパフォーマンスに匹敵するか、それを超えて、計算需要が大幅に軽くなります。

Apriel-Nemotron-15b-Thinker demonstrates that achieving both high performance and efficiency in large language models is possible. As the demand for intelligent and deployable agents continues to rise, models like Apriel-Nemotron-15b-Thinker highlight the potential for pushing the boundaries of AI while ensuring it remains relevant and applicable in real-world settings. Several Key Takeaways from the Research on Apriel-Nemotron-15b-Thinker:This model is capable of performing on par with models almost twice its size. It achieves this performance with a lower memory footprint and token consumption compared to QWQ-32b and EXAONE-Deep-32b. It is interesting to note that it performs better than o1-mini on AIME-24, AIME-25, and AMC-23, despite being a smaller model.

Apriel-Nemotron-15B-Thinkerは、大規模な言語モデルで高性能と効率の両方を達成することが可能であることを示しています。インテリジェントで展開可能なエージェントの需要が増え続けるにつれて、Apriel-Nemotron-15B-Thinkerのようなモデルは、AIの境界を押し広げると同時に、実際の設定で関連性があり、適用可能であることを保証する可能性を強調しています。 Apriel-Nemotron-15B-Thinkerの研究からのいくつかの重要なポイント:このモデルは、そのサイズのほぼ2倍のモデルと同等の実行が可能です。 QWQ-32BおよびEXAONE-DEEP-32Bと比較して、メモリフットプリントとトークンの消費量が少ないこのパフォーマンスを実現します。より小さなモデルであるにもかかわらず、AIME-24、AIME-25、およびAMC-23のO1-Miniよりも優れたパフォーマンスを発揮することは興味深いことです。

The researchers used a structured three-stage training approach to develop the model. The initial stage involved exposing the model to over 100 billion tokens from domains that require deep reasoning, such as mathematical logic, programming challenges, and logical deduction tasks.

研究者は、構造化された3段階トレーニングアプローチを使用してモデルを開発しました。初期段階では、数学的論理、プログラミングの課題、論理控除タスクなど、深い推論を必要とするドメインから1,000億を超えるトークンにモデルを公開することが含まれていました。

免責事項:info@kdj.com

提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。

このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。

2025年05月10日 に掲載されたその他の記事