![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Articles d’actualité sur les crypto-monnaies
Déverrouillage de modèles de langage améliorés : génération améliorée de récupération révélée
Apr 01, 2024 at 03:04 am
La génération augmentée par récupération (RAG) améliore les modèles linguistiques étendus (LLM) en intégrant des connaissances spécifiques provenant d'une base de connaissances. Cette approche exploite les intégrations vectorielles pour récupérer efficacement les informations pertinentes et augmenter le contexte du LLM. RAG répond aux limites des LLM, telles que les connaissances obsolètes et les hallucinations, en donnant accès à des informations spécifiques lors de la réponse aux questions.
Introduction: Enhancing Large Language Models with Retrieval-Augmented Generation (RAG)
Introduction : Amélioration des modèles de langage volumineux avec la génération augmentée par récupération (RAG)
Large Language Models (LLMs) have demonstrated remarkable capabilities in comprehending and synthesizing vast amounts of knowledge encoded within their numerous parameters. However, they possess two significant limitations: limited knowledge beyond their training dataset and a propensity to generate fictitious information when faced with specific inquiries.
Les grands modèles linguistiques (LLM) ont démontré des capacités remarquables à comprendre et à synthétiser de grandes quantités de connaissances codées dans leurs nombreux paramètres. Cependant, ils présentent deux limites importantes : des connaissances limitées au-delà de leur ensemble de données de formation et une propension à générer des informations fictives face à des demandes spécifiques.
Retrieval-Augmented Generation (RAG)
Génération augmentée par récupération (RAG)
Researchers at Facebook AI Research, University College London, and New York University introduced the concept of Retrieval-Augmented Generation (RAG) in 2020. RAG leverages pre-trained LLMs with additional context in the form of specific relevant information, enabling them to generate informed responses to user queries.
Des chercheurs de Facebook AI Research, de l'University College de Londres et de l'Université de New York ont introduit le concept de génération augmentée par récupération (RAG) en 2020. RAG exploite des LLM pré-entraînés avec un contexte supplémentaire sous la forme d'informations pertinentes spécifiques, leur permettant de générer des informations éclairées. réponses aux requêtes des utilisateurs.
Implementation with Hugging Face Transformers, LangChain, and Faiss
Implémentation avec Hugging Face Transformers, LangChain et Faiss
This article provides a comprehensive guide to implementing Google's LLM Gemma with RAG capabilities using Hugging Face transformers, LangChain, and the Faiss vector database. We will delve into the theoretical underpinnings and practical aspects of the RAG pipeline.
Cet article fournit un guide complet pour implémenter le LLM Gemma de Google avec les capacités RAG à l'aide des transformateurs Hugging Face, LangChain et la base de données vectorielles Faiss. Nous approfondirons les fondements théoriques et les aspects pratiques du pipeline RAG.
Overview of the RAG Pipeline
Présentation du pipeline RAG
The RAG pipeline comprises the following steps:
Le pipeline RAG comprend les étapes suivantes :
- Knowledge Base Vectorization: Encode a knowledge base (e.g., Wikipedia documents) into dense vector representations (embeddings).
- Query Vectorization: Convert user queries into vector embeddings using the same encoder model.
- Retrieval: Identify embeddings in the knowledge base that are similar to the query embedding based on a similarity metric.
- Generation: Generate a response using the LLM, augmented with the retrieved context from the knowledge base.
Knowledge Base and Vectorization
Vectorisation de la base de connaissances : codez une base de connaissances (par exemple, des documents Wikipédia) en représentations vectorielles denses (intégrations). Vectorisation des requêtes : convertissez les requêtes des utilisateurs en intégrations vectorielles en utilisant le même modèle d'encodeur. Récupération : identifiez les intégrations dans la base de connaissances qui sont similaires à la base de connaissances. intégration de requêtes basée sur une métrique de similarité.Génération : générer une réponse à l'aide du LLM, augmentée du contexte récupéré de la base de connaissances.Base de connaissances et vectorisation
We begin by selecting an appropriate knowledge base, such as Wikipedia or a domain-specific corpus. Each document z_i in the knowledge base is converted into an embedding vector d(z) using an encoder model.
Nous commençons par sélectionner une base de connaissances appropriée, telle que Wikipédia ou un corpus spécifique à un domaine. Chaque document z_i de la base de connaissances est converti en un vecteur de plongement d(z) à l'aide d'un modèle d'encodeur.
Query Vectorization
Vectorisation des requêtes
When a user poses a question x, it is also transformed into an embedding vector q(x) using the same encoder model.
Lorsqu'un utilisateur pose une question x, elle est également transformée en un vecteur d'intégration q(x) en utilisant le même modèle d'encodeur.
Retrieval
Récupération
To identify relevant documents from the knowledge base, we utilize a similarity metric to measure the distance between q(x) and all available d(z). Documents with similar embeddings are considered relevant to the query.
Pour identifier les documents pertinents de la base de connaissances, nous utilisons une métrique de similarité pour mesurer la distance entre q(x) et tous les d(z) disponibles. Les documents avec des intégrations similaires sont considérés comme pertinents pour la requête.
Generation
Génération
The LLM is employed to generate a response to the user query. However, unlike traditional LLMs, Gemma is augmented with the retrieved context. This enables it to incorporate relevant information from the knowledge base into its response, improving accuracy and reducing hallucinations.
Le LLM est utilisé pour générer une réponse à la requête de l'utilisateur. Cependant, contrairement aux LLM traditionnels, Gemma est enrichi du contexte récupéré. Cela lui permet d’incorporer des informations pertinentes de la base de connaissances dans sa réponse, améliorant ainsi la précision et réduisant les hallucinations.
Conclusion
Conclusion
By leveraging the Retrieval-Augmented Generation (RAG) technique, we can significantly enhance the capabilities of Large Language Models. By providing LLMs with access to specific relevant information, we can improve the accuracy and consistency of their responses, making them more suitable for real-world applications that require accurate and informative knowledge retrieval.
En tirant parti de la technique de génération augmentée par récupération (RAG), nous pouvons améliorer considérablement les capacités des grands modèles linguistiques. En fournissant aux LLM un accès à des informations pertinentes spécifiques, nous pouvons améliorer l'exactitude et la cohérence de leurs réponses, les rendant ainsi plus adaptés aux applications du monde réel qui nécessitent une récupération de connaissances précise et informative.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- La finance de la confidentialité d'abord occupe le devant de la scène: les marchés d'Onchain ont été amorcés pour une croissance d'un trillion de dollars
- Sep 19, 2025 at 01:53 pm
- La technologie de connaissances zéro, l'intégration native de l'USDC et l'adoption institutionnelle convergent pour débloquer le potentiel de milliards de dollars de la finance de la vie privée.
-
- Maxi Doge, Dogecoin et The Crypto Meme Coin Frenzy: Quel est le battage médiatique?
- Sep 19, 2025 at 12:41 pm
- Explorez le marché des pièces MEME avec Maxi Doge et Dogecoin. Des débuts ETF à un stimulation à haut risque, comprenez les tendances qui conduisent les jetons les plus discutés de la cryptographie.
-
- Metamask, MUSD et consensys: une plongée profonde dans la décentralisation et l'innovation
- Sep 19, 2025 at 12:13 pm
- Explorez les derniers développements autour de Metamask, son stablecoin Musd et la stratégie plus large des consensys dans le paysage Web3 en évolution. Découvrez des informations sur la décentralisation, l'utilité des jetons et la croissance des écosystèmes.
-
-
-
- Bitcoin Whales, Ethereum et Smart Money: A New Yorker's Prise sur le paysage évolutif de Crypto
- Sep 19, 2025 at 10:00 am
- Explorez comment les baleines Bitcoin se diversifient dans Ethereum et de nouveaux projets, signalant un changement dans les stratégies d'investissement cryptographique. Découvrez les dernières tendances et idées.
-
-
- Du changement aux richesses: cette pièce de roupie pourrait valoir 10 crores!
- Sep 19, 2025 at 09:44 am
- Dépoussiérez ces vieilles collections de pièces! Cette pièce de monnaie en roupie apparemment insignifiante pourrait bien être votre billet pour une fortune de 10 crores! Voici la baisse des pièces rares.
-
- ZA Miner: votre go-to pour le cloud Mining et le revenu cryptographique en 2026
- Sep 19, 2025 at 09:30 am
- Naviguer dans le paysage cryptographique pour un revenu passif fiable? Le ZA Miner apparaît comme une plate-forme minière de nuages, mélangeant l'IA, l'énergie verte et les contrats transparents pour des paiements quotidiens cohérents en 2026.