![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Articles d’actualité sur les crypto-monnaies
Token-Shuffle: mise à l'échelle des modèles autorégressifs à des images haute résolution
Apr 26, 2025 at 12:38 pm
Les modèles autorégressifs (AR) ont fait des progrès significatifs dans la génération de langues et sont de plus en plus explorés pour la synthèse d'image.
Autoregressive (AR) models have achieved remarkable progress in language generation and are increasingly being explored for image synthesis. However, scaling AR models to high-resolution images presents a persistent challenge. Unlike text, which requires relatively few tokens, high-resolution images necessitate thousands of tokens, leading to a quadratic growth in computational cost. As a result, most AR-based multimodal models are constrained to low or medium resolutions, limiting their utility for detailed image generation. While diffusion models have shown promising results at high resolutions, they come with their own limitations, including complex sampling procedures and slower inference. Addressing the token efficiency bottleneck in AR models remains a crucial open problem for enabling scalable and practical high-resolution image synthesis.
Les modèles autorégressifs (AR) ont réalisé des progrès remarquables dans la génération de langues et sont de plus en plus explorés pour la synthèse d'image. Cependant, la mise à l'échelle des modèles AR vers des images haute résolution présente un défi persistant. Contrairement au texte, qui nécessite relativement peu de jetons, les images haute résolution nécessitent des milliers de jetons, conduisant à une croissance quadratique du coût de calcul. En conséquence, la plupart des modèles multimodaux basés sur AR sont limités à des résolutions faibles ou moyennes, limitant leur utilité pour une génération d'images détaillée. Bien que les modèles de diffusion aient montré des résultats prometteurs à des résolutions élevées, ils viennent avec leurs propres limitations, y compris des procédures d'échantillonnage complexes et une inférence plus lente. La lutte contre le goulot d'étranglement de l'efficacité des jetons dans les modèles AR reste un problème ouvert crucial pour permettre une synthèse d'image à haute résolution évolutive et pratique.
In a new contribution by Meta AI, researchers introduce Token-Shuffle, a method designed to reduce the number of image tokens processed by Transformers without altering the fundamental next-token prediction reach. The key insight underpinning Token-Shuffle is the recognition of dimensional redundancy in visual vocablies used by multimodal large language models (MLLMs). Visual tokens, typically derived from vecor quantization (VQ) models, occupy high-dimensional spaces but carry a lower intrinsic information density compared to text tokens. Token-Shuffle exploits this property by merging spatially local visual tokens along the channel dimension before Transformer processing and subsequently restoring the original spatial structure after inference. This token fusion mechanism allows AR models to handle higher resolutions with significantly reduced computational cost while maintaining visual fidelity.
Dans une nouvelle contribution de Meta IA, les chercheurs introduisent des token-shuffes, une méthode conçue pour réduire le nombre de jetons d'image traités par les transformateurs sans modifier la portée de prédiction fondamentale du prochain. L'informatique clé qui sous-tend les token-shuffes est la reconnaissance de la redondance dimensionnelle dans les vocablies visuelles utilisées par les modèles multimodaux de grande langue (MLLMS). Les jetons visuels, généralement dérivés des modèles de quantification VECOR (VQ), occupent des espaces à haute dimension mais portent une densité d'informations intrinsèques plus faible par rapport aux jetons de texte. Token-Shuffle exploite cette propriété en fusionnant les jetons visuels spatialement locaux le long de la dimension du canal avant le traitement du transformateur et en restaurant par la suite la structure spatiale d'origine après l'inférence. Ce mécanisme de fusion de jeton permet aux modèles AR de gérer des résolutions plus élevées avec un coût de calcul considérablement réduit tout en maintenant la fidélité visuelle.
Token-Shuffle consists of two operations: token-shuffle and token-unshuffle. During input preparation, spatially neighboring tokens are merged using an MLP to form a compressed token that preserves essential local information. For a shuffle window size sss, the number of tokens is reduced by a factor of s2s^2s2, leading to a substantial reduction in Transformer FLOPs. After the Transformer layers, the token-unshuffle operation reconstructs the original spatial arrangement, again assisted by lightweight MLPs.
Token-Shuffle se compose de deux opérations: les token-shuffes et le token-unhuffle. Pendant la préparation des entrées, les jetons spatialement voisins sont fusionnés à l'aide d'un MLP pour former un jeton comprimé qui préserve les informations locales essentielles. Pour un SSS de taille de fenêtre Shuffle, le nombre de jetons est réduit d'un facteur de S2S ^ 2S2, conduisant à une réduction substantielle des flops de transformateur. Après les couches du transformateur, l'opération de token-Unhuffle reconstruit la disposition spatiale d'origine, à nouveau aidée par des MLP légers.
By compressing token sequences during Transformer computation, Token-Shuffle enables the efficient generation of high-resolution images, including those at 2048×2048 resolution. Importantly, this approach does not require modifications to the Transformer architecture itself, nor does it introduce auxiliary loss functions or pretraining of additional encoders.
En compressant les séquences de jetons pendant le calcul du transformateur, les cas de jeton permet la génération efficace d'images à haute résolution, y compris celles à la résolution 2048 × 2048. Surtout, cette approche ne nécessite pas de modifications de l'architecture du transformateur elle-même, ni introduit des fonctions de perte auxiliaires ou de prélèvement des encodeurs supplémentaires.
Moreover, the method integrates a classifier-free guidance (CFG) scheduler specifically adapted for autoregressive generation. Rather than applying a fixed guidance scale across all tokens, the scheduler progressively adjusts guidance strength, minimizing early token artifacts and improving text-image alignment.
De plus, la méthode intègre un planificateur de guidage sans classificateur (CFG) spécifiquement adapté pour la génération autorégressive. Plutôt que d'appliquer une échelle de guidage fixe sur tous les jetons, le planificateur ajuste progressivement la force de guidage, la minimisation des artefacts de jetons précoces et l'amélioration de l'alignement de l'image du texte.
Token-Shuffle was evaluated on two major benchmarks: GenAI-Bench and GenEval. On GenAI-Bench, using a 2.7B parameter LLaMA-based model, Token-Shuffle achieved a VQAScore of 0.77 on “hard” prompts, outperforming other autoregressive models such as LlamaGen by a margin of +0.18 and diffusion models like LDM by +0.15. In the GenEval benchmark, it attained an overall score of 0.62, setting a new baseline for AR models operating in the discrete token regime.
Les token-shuffes ont été évalués sur deux références majeures: Genai-Bench et Geneval. Sur Genai-Bench, en utilisant un modèle basé sur le paramètre 2,7b, les token-shuffes ont obtenu un VQASCore de 0,77 sur des invites «dures», surpassant d'autres modèles autorégressifs tels que Llamagen par une marge de +0,18 et des modèles de diffusion comme LDM par +0,15. Dans la référence Geneval, il a atteint un score global de 0,62, établissant une nouvelle base de référence pour les modèles AR opérant dans le régime de jetons discrets.
Large-scale human evaluation on two benchmarks, GenAI-Bench and GenEval
Évaluation humaine à grande échelle sur deux repères, Genai-Bench et Geneval
Furthermore, Token-Shuffle was subjected to large-scale human evaluation on two benchmarks, GenAI-Bench and GenEval. The results indicated that compared to LlamaGen, Lumina-mGPT, and diffusion baselines, Token-Shuffle showed improved alignment with textual prompts, reduced visual flaws, and higher subjective image quality in most cases. However, minor degradation in logical consistency was observed relative to diffusion models, suggesting avenues for further refinement.
En outre, les token-shuffes ont été soumis à une évaluation humaine à grande échelle sur deux repères, Genai-Bench et Geneval. Les résultats ont indiqué que par rapport aux llamagènes, Lumina-MGPT et les références de diffusion, les token-shuffes ont montré un alignement amélioré avec des invites textuelles, des défauts visuels réduits et une qualité d'image subjective plus élevée dans la plupart des cas. Cependant, une dégradation mineure de la cohérence logique a été observée par rapport aux modèles de diffusion, suggérant des voies pour un raffinement supplémentaire.
In terms of visual quality, Token-Shuffle demonstrated the capability to produce detailed and coherent 1024×1024 and 2048×2048 images. Ablation studies revealed that smaller shuffle window sizes (e.g., 2×2) offered the best trade-off between computational efficiency and output quality. Larger window sizes provided additional speedups but introduced minor losses in fine-grained detail.
En termes de qualité visuelle, les token-shuffes ont démontré la capacité de produire des images détaillées et cohérentes 1024 × 1024 et 2048 × 2048. Des études d'ablation ont révélé que les tailles de fenêtres de mélange plus petites (par exemple, 2 × 2) offraient le meilleur compromis entre l'efficacité de calcul et la qualité de sortie. Des tailles de fenêtre plus grandes ont fourni des accéléreuses supplémentaires, mais ont introduit des pertes mineures dans des détails à grain fin.
All in all, the researchers present a simple yet effective method to address the scalability limitations of autoregressive image generation. By merging spatially local visual tokens during the Transformer computation, their approach reduces the computational complexity without altering the fundamental next-token prediction step. This integration of spatial compression with standard AR generation is compatible with existing multimodal generation frameworks, enabling the efficient generation of high-resolution images. The experimental results highlight the potential of Token-Shuffle to push AR models beyond prior resolution limits, making high-fidelity, high-resolution generation more practical and accessible.
Dans l'ensemble, les chercheurs présentent une méthode simple mais efficace pour répondre aux limites d'évolutivité de la génération d'images autorégressives. En fusionnant les jetons visuels spatialement locaux pendant le calcul du transformateur, leur approche réduit la complexité de calcul sans altérer l'étape de prédiction fondamentale du prochain. Cette intégration de la compression spatiale avec la génération d'AR standard est compatible avec les cadres de génération multimodale existants, permettant la génération efficace d'images à haute résolution. Les résultats expérimentaux mettent en évidence le potentiel des casquettes de jeton pour pousser les modèles AR au-delà des limites de résolution antérieures, ce qui rend la génération haute fidélité et haute résolution plus pratique et plus accessible.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
-
-
-
- Les nouvelles récentes de Cardano (ADA) mettent en évidence des développements importants sur la chaîne signalant une confiance croissante des investisseurs
- Apr 26, 2025 at 07:20 pm
- La récente nouvelle de Cardano met en évidence des développements importants sur la chaîne signalant une confiance croissante des investisseurs. Plus de 20 millions de dollars de jetons ADA ont laissé des plateformes de trading
-
- Justin Sun, fondateur de la Blockchain Tron, a pris son compte sur le réseau des médias sociaux pour partager une déclaration surprenante sur le crypto natif de Tron et le principal Bitcoin de crypto-monnaie du monde.
- Apr 26, 2025 at 07:15 pm
- Sun a mis en évidence une corrélation de TRX à Bitcoin et l'a fièrement partagée dans son X Post.
-
- Le jeton d'hyperliquide détrône Tron dans la génération de frais
- Apr 26, 2025 at 07:15 pm
- Le marché de la cryptographie a connu un changement surprenant au cours des dernières 24 heures, car le jeton d'Hyperliquide a détrôné Tron dans la génération de frais pour la première fois depuis des semaines.
-
- Le prix Bitcoin (BTC) rebondit fortement, préparant le terrain pour une poussée vers 100 000 $
- Apr 26, 2025 at 07:10 pm
- Après avoir plongé à 85,3k $ pendant une période d'incertitude du marché, Bitcoin a montré une résilience remarquable. Le prix de la BTC est revenu à 94,3 000 $ en quelques jours, alimenté par les achats institutionnels et les intérêts de la vente au détail renouvelés.
-
-
- Le prix Bitcoin (BTC) détient au-dessus de 90 000 $ alors que le marché de la cryptographie récupère
- Apr 26, 2025 at 07:05 pm
- Le marché de la cryptographie a enregistré une reprise importante au cours de la semaine de finition à mesure que le sentiment du marché s'améliore. Bitcoin et Solana sont quelques-uns des majors les plus performantes