시가총액: $3.7842T 0.04%
거래량(24시간): $99.4465B -47.05%
  • 시가총액: $3.7842T 0.04%
  • 거래량(24시간): $99.4465B -47.05%
  • 공포와 탐욕 지수:
  • 시가총액: $3.7842T 0.04%
암호화
주제
암호화
소식
cryptostopics
비디오
최고의 뉴스
암호화
주제
암호화
소식
cryptostopics
비디오
bitcoin
bitcoin

$109547.008142 USD

0.04%

ethereum
ethereum

$4011.838726 USD

-0.05%

tether
tether

$1.000402 USD

-0.01%

xrp
xrp

$2.798606 USD

0.88%

bnb
bnb

$970.877944 USD

1.39%

solana
solana

$202.237275 USD

-0.95%

usd-coin
usd-coin

$0.999673 USD

0.00%

dogecoin
dogecoin

$0.229294 USD

-1.15%

tron
tron

$0.336370 USD

-0.45%

cardano
cardano

$0.777260 USD

-1.66%

hyperliquid
hyperliquid

$45.503019 USD

1.73%

ethena-usde
ethena-usde

$1.000362 USD

0.01%

chainlink
chainlink

$20.785303 USD

-1.10%

avalanche
avalanche

$28.755822 USD

-0.11%

stellar
stellar

$0.358303 USD

-0.48%

암호화폐 뉴스 기사

Alibaba의 Tongyi Deepresearch 및 Open-Source LLM Revolution

2025/09/18 15:31

Alibaba의 Tongyi DeepResearch Open-Source LLM, 장거리 호리존 연구 에이전트의 게임 체인저 및 광범위한 AI 환경에 영향을 미칩니다.

Alibaba의 Tongyi Deepresearch 및 Open-Source LLM Revolution

In the ever-evolving landscape of artificial intelligence, Alibaba's Tongyi DeepResearch is making waves with its open-source LLM. This release marks a significant step towards democratizing access to advanced AI research tools, particularly in the realm of long-horizon, deep information-seeking with web tools. Let's delve into the details of this release and what it signifies for the future of AI.

인공 지능의 끊임없이 진화하는 풍경에서 Alibaba의 Tongyi Deepresearch는 오픈 소스 LLM으로 파도를 만들고 있습니다. 이 릴리스는 특히 장거리 호라이즌의 영역에서 웹 도구를 사용하여 깊은 정보를 찾는 고급 AI 연구 도구에 대한 접근을 민주화하기위한 중요한 단계입니다. 이 릴리스의 세부 사항과 AI의 미래에 대해 의미하는 내용을 살펴 보겠습니다.

Unveiling Tongyi DeepResearch-30B-A3B

Tongyi DeepResearch-30B-A3B 공개

Tongyi DeepResearch-30B-A3B is an agent-specialized large language model built by Alibaba’s Tongyi Lab. What sets it apart is its design for long-horizon, deep information-seeking using web tools. The model employs a mixture-of-experts (MoE) architecture with approximately 30.5 billion total parameters, of which only about 3-3.3 billion are active per token. This enables high throughput while maintaining strong reasoning performance.

Tongyi DeepResearch-30B-A3B는 Alibaba의 Tongyi Lab이 제작 한 에이전트 특정 대형 언어 모델입니다. 그것을 차별화하는 것은 웹 도구를 사용하여 긴 호리 존을위한 디자인입니다. 이 모델은 약 305 억 개의 총 매개 변수를 가진 MOE (Mix-of-Experts) 아키텍처를 사용하며, 그 중 약 33 억 3 천만 달러만이 토큰 당 활성화됩니다. 이것은 강력한 추론 성능을 유지하면서 높은 처리량을 가능하게합니다.

This open-source release includes weights, inference scripts, and evaluation utilities under the Apache-2.0 license, making it accessible for developers and researchers alike.

이 오픈 소스 릴리스에는 Apache-2.0 라이센스에 따른 가중치, 추론 스크립트 및 평가 유틸리티가 포함되어 개발자와 연구원 모두가 액세스 할 수 있습니다.

Key Features and Capabilities

주요 기능 및 기능

The model targets multi-turn research workflows, excelling in tasks such as searching, browsing, extracting, cross-checking, and synthesizing evidence. It operates under ReAct-style tool use and a heavier test-time scaling mode, enhancing its capabilities in complex research scenarios.

이 모델은 다중 회전 연구 워크 플로를 목표로하며 검색, 탐색, 추출, 교차 체크 및 증거 합성과 같은 작업이 뛰어납니다. React 스타일 도구 사용 및 더 무거운 테스트 시간 스케일링 모드에서 작동하여 복잡한 연구 시나리오에서 기능을 향상시킵니다.

Architecture and Inference Profile

아키텍처 및 추론 프로파일

Tongyi DeepResearch utilizes a MoE architecture with a 128K context window and incorporates dual ReAct/IterResearch rollouts. It’s trained end-to-end as an agent using a fully automated, scalable data engine, not just as a chat LLM.

Tongyi DeepResearch는 128K 컨텍스트 창이있는 MOE 아키텍처를 사용하고 듀얼 React/Iterresearch 롤아웃을 통합합니다. 채팅 LLM뿐만 아니라 완전 자동화되고 확장 가능한 데이터 엔진을 사용하는 에이전트로서 훈련 된 엔드 투 엔드입니다.

Training Pipeline: Synthetic Data + On-Policy RL

훈련 파이프 라인 : 합성 데이터 + 정책 RL

The training pipeline involves synthetic data generation combined with on-policy reinforcement learning (RL), allowing the model to learn and adapt effectively in research-oriented tasks.

훈련 파이프 라인에는 정책 강화 학습 (RL)과 결합 된 합성 데이터 생성이 포함되어 모델이 연구 지향 작업에서 효과적으로 학습하고 적응할 수 있습니다.

Role in Document and Web Research Workflows

문서 및 웹 연구 워크 플로에서의 역할

Deep-research tasks demand several critical capabilities. These include:

깊은 연구 작업에는 몇 가지 중요한 기능이 필요합니다. 여기에는 다음이 포함됩니다.

  1. Long-horizon planning
  2. Iterative retrieval and verification across sources
  3. Evidence tracking with low hallucination rates
  4. Synthesis under large contexts

The IterResearch rollout restructures context each “round,” retaining only essential artifacts to mitigate context bloat and error propagation. The ReAct baseline demonstrates that the behaviors are learned rather than prompt-engineered, showcasing the model's robustness.

Iterresearch 롤아웃은 각 "라운드"컨텍스트를 구조 조정하여 컨텍스트 팽창 및 오류 전파를 완화하기 위해 필수 아티팩트 만 유지합니다. React 기준선은 모델의 견고성을 보여주는 신속한 엔지니어링보다는 행동이 학습되었음을 보여줍니다.

The Bigger Picture: Open-Source LLMs and the AI Landscape

더 큰 그림 : 오픈 소스 LLM 및 AI 풍경

Alibaba's move to open-source Tongyi DeepResearch aligns with a broader trend in the AI community. The release of models like TildeOpen LLM, which focuses on European languages, highlights the importance of linguistic equity and digital sovereignty. These open-source initiatives empower researchers and developers to build tailored solutions and contribute to the advancement of AI in diverse domains.

Alibaba의 Open-Source Tongyi DeepResearch로의 이동은 AI 커뮤니티의 광범위한 추세와 일치합니다. 유럽 ​​언어에 중점을 둔 Tildeopen LLM과 같은 모델의 출시는 언어 평등과 디지털 주권의 중요성을 강조합니다. 이 오픈 소스 이니셔티브는 연구원과 개발자가 맞춤형 솔루션을 구축하고 다양한 도메인에서 AI의 발전에 기여할 수 있도록 강화합니다.

However, challenges remain in the AI hardware landscape. As seen with Nvidia's China-specific AI processor, the RTX6000D, performance and pricing can significantly impact adoption. The availability of grey-market alternatives further complicates the market dynamics, underscoring the need for competitive and efficient AI solutions.

그러나 AI 하드웨어 환경에는 문제가 남아 있습니다. NVIDIA의 중국 별 AI 프로세서에서 볼 수 있듯이 RTX6000D, 성능 및 가격은 채택에 크게 영향을 줄 수 있습니다. 회색 시장 대안의 가용성은 시장 역학을 더욱 복잡하게하여 경쟁적이고 효율적인 AI 솔루션의 필요성을 강조합니다.

My Two Cents

내 두 센트

From my perspective, the open-sourcing of Tongyi DeepResearch is a big win for the AI community. It provides a valuable tool for researchers and developers, fostering innovation and collaboration. However, the success of such initiatives also depends on addressing hardware challenges and ensuring fair access to computational resources. It's like giving everyone a paintbrush but forgetting to supply the canvas – we need the whole ecosystem to thrive!

내 관점에서 볼 때, Tongyi DeepResearch의 오픈 소싱은 AI 커뮤니티의 큰 승리입니다. 연구원과 개발자에게 혁신과 협업을 육성 할 수있는 귀중한 도구를 제공합니다. 그러나 이러한 이니셔티브의 성공은 하드웨어 문제를 해결하고 계산 자원에 대한 공정한 액세스를 보장하는 데 달려 있습니다. 그것은 모든 사람에게 페인트 브러시를 주지만 캔버스를 공급하는 것을 잊어 버리는 것과 같습니다.

Final Thoughts

최종 생각

In summary, Tongyi DeepResearch-30B-A3B packages a MoE architecture, 128K context, dual ReAct/IterResearch rollouts, and an automated agentic data + GRPO RL pipeline into a reproducible open-source stack. It offers a practical balance of inference cost and capability with reported strong performance on deep-research benchmarks.

요약하면, Tongyi DeepResearch-30B-A3B는 MOE 아키텍처, 128K 컨텍스트, 이중 반응/ITErresearch 롤아웃 및 자동화 된 에이전트 데이터 + GRPO RL 파이프 라인을 재현 가능한 오픈 소스 스택으로 포장합니다. 심층 연구 벤치 마크에서 강력한 성능을보고 한 실질적인 추론 비용 및 기능 균형을 제공합니다.

So, there you have it! Alibaba's Tongyi DeepResearch is not just another AI model; it's a step towards a more open, collaborative, and innovative future in AI research. Keep an eye on this space – the AI revolution is just getting started!

그래서, 당신은 그것을 가지고 있습니다! Alibaba의 Tongyi DeepResearch는 또 다른 AI 모델이 아닙니다. AI 연구에서보다 개방적이고 협력 적이며 혁신적인 미래를 향한 단계입니다. 이 공간을 주시하십시오 - AI 혁명이 막 시작되었습니다!

원본 소스:marktechpost

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2025年09月28日 에 게재된 다른 기사