![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Articles d’actualité sur les crypto-monnaies
Tongyi Deepresearch d'Alibaba et la révolution de l'Open-source LLM
Sep 18, 2025 at 03:31 pm
Explorez Tongyi Deepresearch Open-Source LLM d'Alibaba, un changeur de jeu pour les agents de recherche à horizon long et ses implications dans le paysage plus large de l'IA.
In the ever-evolving landscape of artificial intelligence, Alibaba's Tongyi DeepResearch is making waves with its open-source LLM. This release marks a significant step towards democratizing access to advanced AI research tools, particularly in the realm of long-horizon, deep information-seeking with web tools. Let's delve into the details of this release and what it signifies for the future of AI.
Dans le paysage en constante évolution de l'intelligence artificielle, Tongyi Deepresearch d'Alibaba fait des vagues avec son LLM open-source. Cette version marque une étape importante vers la démocratisation de l'accès aux outils de recherche avancés de l'IA, en particulier dans le domaine de la recherche d'informations profondes longs et profondes avec des outils Web. Plongeons les détails de cette version et ce qu'il signifie pour l'avenir de l'IA.
Unveiling Tongyi DeepResearch-30B-A3B
Dévoilant Tongyi Deepresearch-30B-A3B
Tongyi DeepResearch-30B-A3B is an agent-specialized large language model built by Alibaba’s Tongyi Lab. What sets it apart is its design for long-horizon, deep information-seeking using web tools. The model employs a mixture-of-experts (MoE) architecture with approximately 30.5 billion total parameters, of which only about 3-3.3 billion are active per token. This enables high throughput while maintaining strong reasoning performance.
Tongyi Deepresearch-30B-A3B est un modèle de langue spécialisé en agent construit par le laboratoire Tongyi d'Alibaba. Ce qui le distingue, c'est sa conception pour la recherche d'informations longs et profondes à l'aide d'outils Web. Le modèle utilise une architecture de mélange d'Experts (MOE) avec environ 30,5 milliards de paramètres totaux, dont seulement 3 à 3,3 milliards sont actifs par jeton. Cela permet un débit élevé tout en conservant de solides performances de raisonnement.
This open-source release includes weights, inference scripts, and evaluation utilities under the Apache-2.0 license, making it accessible for developers and researchers alike.
Cette version open source comprend des poids, des scripts d'inférence et des utilitaires d'évaluation sous la licence Apache-2.0, ce qui le rend accessible aux développeurs et aux chercheurs.
Key Features and Capabilities
Caractéristiques et capacités clés
The model targets multi-turn research workflows, excelling in tasks such as searching, browsing, extracting, cross-checking, and synthesizing evidence. It operates under ReAct-style tool use and a heavier test-time scaling mode, enhancing its capabilities in complex research scenarios.
Le modèle cible des flux de travail de recherche multi-tours, en excellant dans des tâches telles que la recherche, la navigation, l'extraction, la vérification et la synthèse des preuves. Il fonctionne sous l'utilisation d'outils de style React et un mode de mise à l'échelle de test plus lourd, améliorant ses capacités dans des scénarios de recherche complexes.
Architecture and Inference Profile
Architecture et profil d'inférence
Tongyi DeepResearch utilizes a MoE architecture with a 128K context window and incorporates dual ReAct/IterResearch rollouts. It’s trained end-to-end as an agent using a fully automated, scalable data engine, not just as a chat LLM.
Tongyi Deepresearch utilise une architecture MOE avec une fenêtre de contexte 128k et intègre les déploiements Dual React / Iterresearch. Il est formé de bout en bout en tant qu'agent utilisant un moteur de données évolutif entièrement automatisé, pas seulement en tant que Chat LLM.
Training Pipeline: Synthetic Data + On-Policy RL
Pipe de formation: données synthétiques + RL sur la politique
The training pipeline involves synthetic data generation combined with on-policy reinforcement learning (RL), allowing the model to learn and adapt effectively in research-oriented tasks.
Le pipeline d'entraînement implique la génération de données synthétiques combinée à l'apprentissage en renforcement de politique (RL), permettant au modèle d'apprendre et de s'adapter efficacement dans les tâches orientées vers la recherche.
Role in Document and Web Research Workflows
Rôle dans les flux de travail de recherche sur les documents et le Web
Deep-research tasks demand several critical capabilities. These include:
Les tâches de recherche en profondeur exigent plusieurs capacités critiques. Ceux-ci incluent:
- Long-horizon planning
- Iterative retrieval and verification across sources
- Evidence tracking with low hallucination rates
- Synthesis under large contexts
The IterResearch rollout restructures context each “round,” retaining only essential artifacts to mitigate context bloat and error propagation. The ReAct baseline demonstrates that the behaviors are learned rather than prompt-engineered, showcasing the model's robustness.
Le déploiement iTerresearch restructure le contexte de chaque «ronde», ne conservant que des artefacts essentiels pour atténuer le ballonnement du contexte et la propagation d'erreur. La ligne de base React démontre que les comportements sont apprises plutôt que des ingénients rapides, présentant la robustesse du modèle.
The Bigger Picture: Open-Source LLMs and the AI Landscape
La vue d'ensemble: LLMS open-source et le paysage de l'IA
Alibaba's move to open-source Tongyi DeepResearch aligns with a broader trend in the AI community. The release of models like TildeOpen LLM, which focuses on European languages, highlights the importance of linguistic equity and digital sovereignty. These open-source initiatives empower researchers and developers to build tailored solutions and contribute to the advancement of AI in diverse domains.
La décision d'Alibaba à Tongyi Deepresearch open-source s'aligne sur une tendance plus large dans la communauté de l'IA. La sortie de modèles comme Tildeopen LLM, qui se concentre sur les langues européennes, met en évidence l'importance de l'équité linguistique et de la souveraineté numérique. Ces initiatives open source permettent aux chercheurs et aux développeurs de construire des solutions sur mesure et à contribuer à l'avancement de l'IA dans divers domaines.
However, challenges remain in the AI hardware landscape. As seen with Nvidia's China-specific AI processor, the RTX6000D, performance and pricing can significantly impact adoption. The availability of grey-market alternatives further complicates the market dynamics, underscoring the need for competitive and efficient AI solutions.
Cependant, des défis restent dans le paysage matériel de l'IA. Comme le montre le processeur d'IA spécifique à la Chine de NVIDIA, le RTX6000D, les performances et les prix peuvent avoir un impact significatif sur l'adoption. La disponibilité des alternatives sur le marché gris complique encore la dynamique du marché, soulignant le besoin de solutions d'IA compétitives et efficaces.
My Two Cents
Mes deux cents
From my perspective, the open-sourcing of Tongyi DeepResearch is a big win for the AI community. It provides a valuable tool for researchers and developers, fostering innovation and collaboration. However, the success of such initiatives also depends on addressing hardware challenges and ensuring fair access to computational resources. It's like giving everyone a paintbrush but forgetting to supply the canvas – we need the whole ecosystem to thrive!
De mon point de vue, l'ouverture de Tongyi Deepresearch est une grande victoire pour la communauté de l'IA. Il fournit un outil précieux pour les chercheurs et les développeurs, favorisant l'innovation et la collaboration. Cependant, le succès de ces initiatives dépend également de la résolution des défis matériels et de la garantie d'un accès équitable aux ressources de calcul. C'est comme donner à tout le monde un pinceau mais oublier de fournir la toile - nous avons besoin de tout l'écosystème pour prospérer!
Final Thoughts
Réflexions finales
In summary, Tongyi DeepResearch-30B-A3B packages a MoE architecture, 128K context, dual ReAct/IterResearch rollouts, and an automated agentic data + GRPO RL pipeline into a reproducible open-source stack. It offers a practical balance of inference cost and capability with reported strong performance on deep-research benchmarks.
En résumé, Tongyi DeepResearch-30B-A3B emballe une architecture MOE, un contexte 128k, des déploiements Dual React / Iterresearch et un pipeline de données d'agent automatisé + GRPO RL dans une pile de source ouverte reproductible. Il offre un équilibre pratique des coûts et des capacités d'inférence avec des performances fortes rapportées sur des références en profondeur.
So, there you have it! Alibaba's Tongyi DeepResearch is not just another AI model; it's a step towards a more open, collaborative, and innovative future in AI research. Keep an eye on this space – the AI revolution is just getting started!
Alors, vous l'avez! Le Tongyi Deepresearch d'Alibaba n'est pas seulement un autre modèle d'IA; C'est un pas vers un avenir plus ouvert, collaboratif et innovant dans la recherche sur l'IA. Gardez un œil sur cet espace - la révolution de l'IA ne fait que commencer!
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Arrêt du gouvernement, Trump Meeting, impassion: une prise de crypto de New Yorker
- Sep 30, 2025 at 09:46 am
- Analyse de l'impact potentiel d'une fermeture du gouvernement, de l'implication de Trump et d'une impasse politique sur le marché de la cryptographie. Attendez-vous à des retards de volatilité et de réglementation, mais ne paniquez pas!
-
-
- Dogecoin, Shiba Inu et Remittix: décoder le battage médiatique de la cryptographie
- Sep 30, 2025 at 09:30 am
- Dogecoin et Shiba INU font face à une nouvelle compétition alors que Remittix gagne du terrain avec une utilité réelle. Cet article explore les dernières tendances et idées dans les espaces Meme Coin et Payfi.
-
-
-
-
-
-
- Crypto Macro Watchlist: naviguer la volatilité avec un New Yorker's Edge
- Sep 30, 2025 at 09:03 am
- Une ventilation des principales tendances cryptographiques, des rapports macro et des joyaux de liste de surveillance comme Eggman, Popcat et PNUT basés, offrant des informations pour naviguer sur le marché.