![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Tech Giantは、Gemini 2.5 Flashの拡張機能を発表しました。これは、推論、コード、長いコンテキストのベンチマークなど、ほぼすべての次元にわたって優れています。
Google is moving closer to its goal of a “universal AI assistant” that can understand context, plan and take action.
Googleは、コンテキストを理解し、計画し、行動を起こすことができる「ユニバーサルAIアシスタント」の目標に近づいています。
Today at Google I/O, the tech giant announced enhancements to its Gemini 2.5 Flash — it’s now better across nearly every dimension, including benchmarks for reasoning, code and long context — and 2.5 Pro, including an experimental enhanced reasoning mode, ‘Deep Think,’ that allows Pro to consider multiple hypotheses before responding.
今日、Google I/Oで、Tech GiantはGemini 2.5 Flashの拡張機能を発表しました。これは、推論、コード、長いコンテキストのベンチマークと2.5 Proを含む、ほぼすべての次元で優れています。
“This is our ultimate goal for the Gemini app: An AI that’s personal, proactive and powerful,” Demis Hassabis, CEO of Google DeepMind, said in a press pre-brief.
Google DeepmindのCEOであるDemis Hassabis氏は、「これがGeminiアプリの究極の目標です。個人的で積極的で強力なAI」
‘Deep Think’ scores impressively on top benchmarks
「Deep Think」は、トップベンチマークで印象的にスコアを付けます
Google announced Gemini 2.5 Pro — what it considers its most intelligent model yet, with a one-million-token context window — in March, and released its “I/O” coding edition earlier this month (with Hassabis calling it “the best coding model we’ve ever built!”).
Googleは、3月にGemini 2.5 Pro(これまでで最もインテリジェントなモデルを100万回のコンテキストウィンドウで検討していることを発表し、今月初めに「I/O」コーディングエディションをリリースしました(Hassabisが「これまでに構築した中で最高のコーディングモデル!」と呼んでいます)。
“We’ve been really impressed by what people have created, from turning sketches into interactive apps to simulating entire cities,” said Hassabis.
「スケッチをインタラクティブなアプリに変えることから、都市全体をシミュレートすることまで、人々が作成したものに本当に感銘を受けました」とハサビスは言いました。
He noted that, based on Google’s experience with AlphaGo, AI model responses improve when they’re given more time to think. This led DeepMind scientists to develop Deep Think, which uses Google’s latest cutting-edge research in thinking and reasoning, including parallel techniques.
彼は、GoogleのAlphagoでの経験に基づいて、AIモデルの応答がより多くの時間を与えられると改善することに注目しました。これにより、ディープマインドの科学者は、並行テクニックを含む、Googleの思考と推論に関する最新の最新の研究を使用しているDeep Thinkを開発するようになりました。
Deep Think has shown impressive scores on the hardest math and coding benchmarks, including the 2025 USA Mathematical Olympiad (USAMO). It also leads on LiveCodeBench, a difficult benchmark for competition-level coding, and scores 84.0% on MMMU, which tests multimodal understanding and reasoning.
Deep Thinkは、2025 USA Mathematical Olympiad(USAMO)を含む、最も硬い数学とコーディングのベンチマークで印象的なスコアを示しています。また、競争レベルのコーディングの困難なベンチマークであるLiveCodebenchでリードし、MMMUで84.0%のスコアであり、マルチモーダルの理解と推論をテストします。
Hassabis added, “We’re taking a bit of extra time to conduct more frontier safety evaluations and get further input from safety experts.” (Meaning: As for now, it is available to trusted testers via the API for feedback before the capability is made widely available.)
Hassabisは、「フロンティアの安全性評価をより多く実施し、安全の専門家からさらに意見を述べるために、少し余分な時間をかけています。」 (意味:今のところ、機能が広く利用可能になる前に、フィードバックのためにAPIを介して信頼できるテスターが利用できます。)
Overall, the new 2.5 Pro leads popular coding leaderboard WebDev Arena, with an ELO score — which measures the relative skill level of players in two-player games like chess — of 1420 (intermediate to proficient). It also leads across all categories of the LMArena leaderboard, which evaluates AI based on human preference.
全体として、新しい2.5 Proは人気のあるコーディングリーダーボードWebDev Arenaをリードしており、ELOスコア(チェスなどの2プレイヤーゲームのプレイヤーの相対的なスキルレベルを1420(中級から熟練した))を測定します。また、人間の好みに基づいてAIを評価するLmarenaリーダーボードのすべてのカテゴリにまたがっています。
Since its launch, “we’ve been really impressed by what [users have] created, from turning sketches into interactive apps to simulating entire cities,” said Hassabis.
「スケッチをインタラクティブなアプリに変えることから都市全体をシミュレートするまで、「ユーザーが作成したものに本当に感銘を受けた」とハッサビスは述べています。
Important updates to Gemini 2.5 Pro, Flash
Gemini 2.5 Pro、Flashの重要な更新
Also today, Google announced an enhanced 2.5 Flash, considered its workhorse model designed for speed, efficiency and low cost. 2.5 Flash has been improved across the board in benchmarks for reasoning, multimodality, code and long context — Hassabis noted that it’s “second only” to 2.5 Pro on the LMArena leaderboard. The model is also more efficient, using 20 to 30% fewer tokens.
また、Googleは本日、速度、効率、低コストのために設計された主力モデルと見なされる強化された2.5フラッシュを発表しました。 2.5フラッシュは、推論、マルチモダリティ、コード、長いコンテキストのためにベンチマークで全面的に改善されました。ハッサビスは、Lmarenaリーダーボードの2.5 Proに「2番目のみ」であると指摘しました。モデルは、20〜30%少ないトークンを使用して、より効率的です。
Google is making final adjustments to 2.5 Flash based on developer feedback; it is now available for preview in Google AI Studio, Vertex AI and in the Gemini app. It will be generally available for production in early June.
Googleは、開発者のフィードバックに基づいて2.5フラッシュを最終的に調整しています。現在、Google AI Studio、Vertex AI、およびGeminiアプリでプレビューできます。通常、6月上旬に生産が可能になります。
Google is bringing additional capabilities to both Gemini 2.5 Pro and 2.5 Flash, including native audio output to create more natural conversational experiences, text-to-speech to support multiple speakers, thought summaries and thinking budgets.
Googleは、Gemini 2.5 Proと2.5 Flashの両方に追加の機能をもたらしています。これには、より自然な会話型エクスペリエンス、テキストへのスピーチ、複数のスピーカー、思考の概要、思考予算を作成するためのネイティブオーディオ出力が含まれます。
With native audio input (in preview), users can steer Gemini’s tone, accent and style of speaking (think: directing the model to be melodramatic or maudlin when telling a story). Like Project Mariner, the model is also equipped with tool use, allowing it to search on users’ behalf.
ネイティブのオーディオ入力(プレビュー)を使用すると、ユーザーはジェミニのトーン、アクセント、スピーキングスタイルを操縦できます(ストーリーを語るときにモデルをメロドラマティックまたはモードリンに指示する)。 Project Marinerと同様に、このモデルにはツールの使用も装備されており、ユーザーに代わって検索できます。
Other experimental early voice features include affective dialogue, which gives the model the ability to detect emotion in user voice and respond accordingly; proactive audio that allows it to tune out background conversations; and thinking in the Live API to support more complex tasks.
他の実験的な初期の音声機能には、感情的な対話が含まれます。これにより、モデルにユーザーの音声で感情を検出し、それに応じて応答する能力が得られます。バックグラウンドの会話を調整できるプロアクティブなオーディオ。ライブAPIで、より複雑なタスクをサポートするために考えています。
New multiple-speaker features in both Pro and Flash support more than 24 languages, and the models can quickly switch from one dialect to another. “Text-to-speech is expressive and can capture subtle nuances, such as whispers,” Koray Kavukcuoglu, CTO of Google DeepMind, and Tulsee Doshi, senior director for product management at Google DeepMind, wrote in a blog posted today.
PROとFlashの両方の新しい複数のスピーカー機能は24を超える言語をサポートしており、モデルはある方言から別の方言にすばやく切り替えることができます。 「テキストからスピーチは表情豊かで、ささやきなどの微妙なニュアンスを捉えることができます」とGoogle DeepmindのCTOであるKoray Kavukcuogluと、Google Deepmindの製品管理のシニアディレクターであるTulsee Doshiは本日投稿されたブログに書いています。
Further, 2.5 Pro and Flash now include thought summaries in the Gemini API and Vertex AI. These “take the model’s raw thoughts and organize them into a clear format with headers, key details, and information about model actions, like when they use tools,” Kavukcuoglu and Doshi explain. The goal is to provide a more structured, streamlined format for the model’s thinking
さらに、2.5 ProとFlashには、Gemini APIおよびVertex AIに思考の要約が含まれるようになりました。これらは「モデルの生の考えを取り、それらがツールを使用するときのように、ヘッダー、重要な詳細、モデルアクションに関する情報を備えた明確な形式に整理します」とKavukcuogluやDoshiは説明します。目標は、モデルの思考のために、より構造化された合理化された形式を提供することです
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。
-
- 最近暗号通りに目を光らせている場合は、すでに知っています。ここで熱くなります
- 2025-06-09 18:00:45
- ビットコインが再び騒ぎ立て、メモカインが野生に走り、さまざまな国でチャチャを行う規制で
-
-
-
-
- Michael Saylor Hints at Another Bitcoin Purchase as Demand from US Spot BTC ETFs Dwarfs Bitcoin Miner Output Last Week
- 2025-06-09 17:50:12
- Strategy co-founder Micheal Saylor has hinted at another Bitcoin purchase for the firm as demand from US spot BTC ETFs (exchange-traded funds) dwarfed Bitcoin miner output last week.
-
-
-
-