Capitalisation boursière: $3.774T 1.890%
Volume(24h): $117.0644B 9.650%
  • Capitalisation boursière: $3.774T 1.890%
  • Volume(24h): $117.0644B 9.650%
  • Indice de peur et de cupidité:
  • Capitalisation boursière: $3.774T 1.890%
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
Top nouvelles
Cryptos
Les sujets
Cryptospedia
Nouvelles
Cryptosopique
Vidéos
bitcoin
bitcoin

$114720.362772 USD

-0.06%

ethereum
ethereum

$3679.931631 USD

3.08%

xrp
xrp

$3.057833 USD

1.50%

tether
tether

$0.999889 USD

-0.02%

bnb
bnb

$766.427054 USD

1.33%

solana
solana

$169.325846 USD

3.04%

usd-coin
usd-coin

$0.999801 USD

0.01%

tron
tron

$0.334792 USD

2.22%

dogecoin
dogecoin

$0.208867 USD

3.09%

cardano
cardano

$0.753413 USD

1.95%

hyperliquid
hyperliquid

$38.743306 USD

0.17%

stellar
stellar

$0.410709 USD

-0.43%

sui
sui

$3.557841 USD

1.67%

chainlink
chainlink

$16.944222 USD

1.95%

bitcoin-cash
bitcoin-cash

$571.484092 USD

3.65%

Articles d’actualité sur les crypto-monnaies

Google teste un nouveau mode expérimental pour Gemini 2.5 Pro qui ajoute des capacités de raisonnement plus profondes et une sortie audio native

May 21, 2025 at 02:27 am

Le nouveau mode, appelé «Deep Think», est conçu pour aider le modèle à évaluer plusieurs hypothèses avant de répondre à une invite. Selon Google, il est basé sur de nouvelles méthodes de recherche et est actuellement testé avec un groupe limité d'utilisateurs d'API Gemini.

Google teste un nouveau mode expérimental pour Gemini 2.5 Pro qui ajoute des capacités de raisonnement plus profondes et une sortie audio native

Google is introducing deeper reasoning capabilities and native audio output to its Gemini 2.5 Pro model in an experimental mode called "Deep Think."

Google introduit des capacités de raisonnement plus profondes et une sortie audio native dans son modèle Gemini 2.5 Pro dans un mode expérimental appelé "Deep Think".

This new mode, which is still under testing with a limited group of Gemini API users, encourages the model to consider multiple hypotheses before arriving at an answer.

Ce nouveau mode, qui est toujours sous test avec un groupe limité d'utilisateurs d'API Gemini, encourage le modèle à considérer plusieurs hypothèses avant d'arriver à une réponse.

The technology behind Deep Think is based on new research methods at Google AI, and the company claims that Gemini 2.5 Pro with Deep Think outperforms OpenAI's o3 model on several benchmarks.

La technologie derrière Deep Think est basée sur de nouvelles méthodes de recherche chez Google AI, et la société affirme que Gemini 2.5 Pro avec Deep Think surpasse le modèle O3 d'Openai sur plusieurs repères.

These include the USAMO 2025 math test, the LiveCodeBench programming benchmark, and MMMU, a test for multimodal reasoning.

Il s'agit notamment du test mathématique de l'USAMO 2025, de la référence de programmation LiveCodeBench et du MMMU, un test pour le raisonnement multimodal.

Gemini 2.5 Flash, optimized for speed and efficiency, has also been updated with improved performance on reasoning, multimodal tasks, and code generation.

Gemini 2.5 Flash, optimisé pour la vitesse et l'efficacité, a également été mis à jour avec des performances améliorées sur le raisonnement, les tâches multimodales et la génération de code.

The latest version of Flash can perform the same tasks using 20 to 30 percent fewer tokens.

La dernière version de Flash peut effectuer les mêmes tâches en utilisant 20 à 30% de jetons en moins.

Both Gemini 2.5 Pro and Flash now support native text-to-speech with multiple speaker profiles. The voice output can capture subtle effects like whispers and emotional tone, and supports more than 24 languages.

Gemini 2.5 Pro et Flash prennent désormais en charge le texte-voca-vocation natif avec plusieurs profils de haut-parleurs. La sortie vocale peut capturer des effets subtils comme les chuchotements et le ton émotionnel, et prend en charge plus de 24 langues.

Developers can control accent, tone, and speaking style through the Live API.

Les développeurs peuvent contrôler l'accent, le ton et le style de parole via l'API en direct.

Two new features—"Affective Dialogue" and "Proactive Audio"—aim to make voice interactions feel more natural.

Deux nouvelles fonctionnalités - «Dialogue affectif» et «audio proactif» - aim pour que les interactions vocales se sentent plus naturelles.

Affective Dialogue allows the model to detect emotion in a user's voice and respond accordingly—whether that’s neutrally, empathetically, or in a cheerful tone.

Le dialogue affectif permet au modèle de détecter l'émotion dans la voix d'un utilisateur et de réagir en conséquence - que ce soit neutre, empathiquement ou sur un ton gai.

Proactive Audio helps filter out background conversations, so the AI only responds when it's directly addressed. The goal is to reduce accidental interactions and make voice control more reliable.

Proactive Audio aide à filtrer les conversations d'arrière-plan, de sorte que l'IA ne répond que lorsqu'elle est directement traitée. L'objectif est de réduire les interactions accidentelles et de rendre le contrôle vocal plus fiable.

Google is also bringing features from Project Mariner into the Gemini API and Vertex AI, allowing the model to control computer applications like a web browser.

Google apporte également des fonctionnalités de Project Mariner dans l'API Gemini et Vertex AI, permettant au modèle de contrôler les applications informatiques comme un navigateur Web.

For developers, Gemini now includes "thought summaries", a structured view of the model’s internal reasoning and the actions it takes.

Pour les développeurs, Gemini comprend désormais des "résumés de pensée", une vision structurée du raisonnement interne du modèle et des actions qu'elle prend.

To manage performance, developers can configure "thinking budgets" to limit or disable the number of tokens the model uses for reasoning.

Pour gérer les performances, les développeurs peuvent configurer les «budgets de réflexion» pour limiter ou désactiver le nombre de jetons que le modèle utilise pour le raisonnement.

The Gemini API also now supports Anthropic's Model Context Protocol (MCP), which could make it easier to integrate with open-source tools.

L'API Gemini prend également en charge le protocole de contexte modèle (MCP) d'Anthropic, ce qui pourrait faciliter l'intégration des outils open source.

Google is exploring hosted MCP servers to support agent-based application development.

Google explore les serveurs MCP hébergés pour prendre en charge le développement d'applications basé sur les agents.

Source primaire:the-decoder

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres articles publiés sur Aug 05, 2025