![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nachrichtenartikel zu Kryptowährungen
GTE-Moderncolbert-V1: Ein neues hochmodernes Modell für das langen semantische Abruf
May 12, 2025 at 02:08 am
In diesem Artikel wird GTE-Moderncolbert-V1 vorgestellt, ein neues Modell, das auf der Colbert-Architektur aufbaut und die Modernbert Foundation integriert
Researchers from LightOn AI have presented GTE-ModernColBERT-v1, a model that builds upon the ColBERT architecture and integrates the ModernBERT foundation developed by Alibaba-NLP. Their aim was to distill knowledge from a base model and optimize it on the MS MARCO dataset, hoping to overcome limitations related to context length and semantic preservation. The model was trained using 300-token document inputs but demonstrated the ability to handle inputs as large as 8192 tokens, making it suitable for indexing and retrieving longer documents with minimal information loss. This work was deployed through PyLate, a library that simplifies the indexing and querying of documents using dense vector models. The model performs token-level semantic matching using the MaxSim operator, which evaluates similarity between individual token embeddings rather than compressing them into a single vector.
Forscher von Lighton AI haben GTE-Moderncolbert-V1 vorgestellt, ein Modell, das auf der Colbert-Architektur aufbaut und die von Alibaba-NLP entwickelte Modernbert-Stiftung integriert. Ihr Ziel war es, Wissen von einem Basismodell aus zu destillieren und auf dem MS Marco -Datensatz zu optimieren, in der Hoffnung, Einschränkungen im Zusammenhang mit der Kontextlänge und der semantischen Erhaltung zu überwinden. Das Modell wurde unter Verwendung von 300 geführten Dokumenteingängen trainiert, zeigte jedoch die Fähigkeit, Eingänge von bis zu 8192 Token zu verarbeiten, was es zum Indexieren und Abrufen längerer Dokumente mit minimalem Informationsverlust eignet. Diese Arbeit wurde über Pylate eingesetzt, eine Bibliothek, die die Indexierung und Abfragung von Dokumenten unter Verwendung dichter Vektormodelle vereinfacht. Das Modell führt mit dem Maxsim-Operator eine semantische Übereinstimmung auf Token-Ebene durch, die die Ähnlichkeit zwischen einzelnen Token-Einbettungen bewertet, anstatt sie in einen einzelnen Vektor zu komprimieren.
GTE-ModernColBERT-v1 transforms text into 128-dimensional dense vectors and uses the MaxSim function for computing semantic similarity between query and document tokens, preserving granular context and enabling more refined retrieval. It integrates with PyLate’s Voyager indexing system, which manages large-scale embeddings using an efficient HNSW (Hierarchical Navigable Small World) index. Once documents are embedded and stored, users can retrieve the top-k most relevant documents using the ColBERT retriever. This process supports full pipeline indexing and lightweight reranking for first-stage retrieval systems. PyLate offers flexibility in modifying document length during inference, allowing users to handle texts much longer than the model was originally trained on, an advantage rarely seen in standard embedding models.
GTE-Moderncolbert-V1 verwandelt Text in 128-dimensionale dichte Vektoren und verwendet die maximale Funktion zur Berechnung der semantischen Ähnlichkeit zwischen Abfragen- und Dokumenten-Token, wodurch ein granularer Kontext beibehalten und das raffinere Abruf ermöglicht wird. Es integriert sich in das Voyager-Indexierungssystem von Pylate, das groß angelegte Einbettungen unter Verwendung eines effizienten HNSW-Index (Hierarchical Navigable Small World) verwaltet. Sobald Dokumente eingebettet und gespeichert sind, können Benutzer die am besten relevanten Dokumente mit dem Colbert Retriever abrufen. Dieser Prozess unterstützt die vollständige Pipeline-Indexierung und das leichte Umbau für Abrufsysteme in der ersten Stufe. Pylate bietet Flexibilität bei der Änderung der Dokumentlänge während der Inferenz und ermöglicht es den Benutzern, Texte zu verarbeiten, als das Modell ursprünglich geschult wurde, ein Vorteil, der in Standard -Einbettungsmodellen selten zu sehen ist.
On the NanoClimate dataset, the model achieved a MaxSim Accuracy@1 of 0.360, Accuracy@5 of 0.780, and Accuracy@10 of 0.860. Precision and recall scores were consistent, with MaxSim Recall@3 reaching 0.289 and Precision@3 at 0.233. These scores highlight the model’s capability to retrieve accurate results even in longer-context retrieval scenarios.
Auf dem Nanoklimat -Datensatz erreichte das Modell eine Maxsim -Genauigkeit@1 von 0,360, Genauigkeit@5 von 0,780 und Genauigkeit bei 10 von 0,860. Präzisions- und Rückrufwerte waren konsistent, wobei Maxsim -Rückruf@3 0,289 und Precision@3 bei 0,233 erreichte. Diese Punkte unterstreichen die Fähigkeit des Modells, auch in längeren Kontext-Abrufszenarien genaue Ergebnisse abzurufen.
When evaluated on the BEIR benchmark, GTE-ModernColBERT outperformed previous models, including ColBERT-small. It scored 54.89 on the FiQA2018 dataset, 48.51 on NFCorpus, and 83.59 on the TREC-COVID task. The average performance across these tasks was significantly higher than baseline ColBERT variants. Notably, in the LongEmbed benchmark, the model scored 88.39 in Mean score and 78.82 in LEMB Narrative QA Retrieval, surpassing other leading models such as voyage-multilingual-2 (79.17) and bge-m3 (58.73). These results suggest that the model offers robust generalization and effective handling of long-context documents, outperforming many contemporaries by almost 10 points on long-context tasks. It is also highly adaptable to different retrieval pipelines, supporting both indexing and reranking implementations, making it a versatile solution for scalable semantic search.
Bei der Bewertung des BEIR-Benchmarks übertraf GTE-Moderncolbert die Vorgängermodelle, einschließlich Colbert-Small. Auf dem FIQA2018-Datensatz von 54,89, 48,51 auf NFCorpus und 83,59 für die TREC-Covid-Aufgabe. Die durchschnittliche Leistung über diese Aufgaben war signifikant höher als die Colbert -Varianten der Basis. Bemerkenswerterweise erzielte das Modell im länglichen Benchmark 88,39 in der Mittelwert und 78,82 im QA-Abruf von LEMB-Erzählung, wobei andere führende Modelle wie Voyage-Multoringual-2 (79,17) und BGE-M3 (58,73) übertroffen wurden. Diese Ergebnisse legen nahe, dass das Modell eine robuste Verallgemeinerung und eine effektive Behandlung von Dokumenten mit langer Kontext bietet und viele Zeitgenossen um fast 10 Punkte bei lang Kontextaufgaben übertreffen. Es ist auch sehr anpassungsfähig an verschiedene Abrufpipelines, wodurch sowohl die Indexierung als auch die Umstände von Implementierungen unterstützt werden, was es zu einer vielseitigen Lösung für skalierbare semantische Suche macht.
Several Key Highlights from the Research on GTE-ModernColBERT-v1 include:This research provides a meaningful contribution to long-document semantic retrieval. By combining the strengths of token-level matching with scalable architecture, GTE-ModernColBERT-v1 addresses several bottlenecks that current models face. It introduces a reliable method for processing and retrieving semantically rich information from extended contexts, significantly improving precision and recall in longer-context retrieval scenarios.
Zu den wichtigsten Highlights aus der Forschung zu GTE-Moderncolbert-V1 gehören: Diese Forschung bietet einen sinnvollen Beitrag zum semantischen langdokumentierten Retrieval. Durch die Kombination der Stärken der mit skalierbaren Architektur entsprechenden Token-Level-Ebene befasst sich GTE-Moderncolbert-V1 mit mehreren Engpässen, denen aktuelle Modelle konfrontiert sind. Es führt eine zuverlässige Methode zur Verarbeitung und Abrufen semantisch reichhaltiger Informationen aus erweiterten Kontexten ein, wodurch die Präzision und den Rückruf in länger kontextlichen Abrufszenarien erheblich verbessert werden.
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Die US -amerikanische SEC hat den Spot Dodecoin ETF -Einreichung von 21 Shares offiziell anerkannt
- May 14, 2025 at 05:30 am
- Die United States Securities and Exchange Commission (SEC) hat die Einreichung von Spot Dodcoin ETF von 21 Shares offiziell anerkannt, ein Update, das den Doge -Preis für eine bullische Fahrt festgelegt hat.
-
- Trotz Kritik könnte Ripple 'wesentliche XRP -Reserven eines seiner größten strategischen Vermögenswerte sein
- May 14, 2025 at 05:30 am
- Die wesentliche Kontrolle von Ripple über die Versorgung mit XRP wurde häufig als Risiko für die Dezentralisierung kritisiert. Jüngste Argumente aus Branchenstimmen deuten jedoch darauf hin, dass diese Reserve eines der stärksten strategischen Vermögenswerte des Unternehmens bei der Förderung des langfristigen Nutzens und des Marktwerts des XRP sein könnte.
-
- SEC bestätigt die Anwendung von 21Shares auf einen Dotecoin -ETF, der einen Überprüfungsprozess einrichten
- May 14, 2025 at 05:25 am
- Die US Securities and Exchange Commission (SEC) hat offiziell einen von 21 Shares eingereichten Dotecoin ETF -Antrag anerkannt. Diese Einreichung von Dodecoin ETF initiiert einen strukturierten Überprüfungsprozess, wodurch die Anwendung in die formale regulatorische Pipeline eingereicht wird.
-
-
-
- Ein Wal hat 5,57 Millionen AI16Z [AI16Z] -Token im Wert von 2 Millionen US -Dollar erworben
- May 14, 2025 at 05:20 am
- Ein Wal hat über den Jupiter -Aggregator 5,57 Millionen AI16Z [AI16Z] -Token im Wert von 2 Millionen US -Dollar erworben und aufmerksam, während der Markt weiterhin widersprüchliche technische und stimmische Signale zeigt.
-
-
- Coinbase macht Geschichte, indem er das erste Kryptowährungsunternehmen ist, das zum S & P 500 -Index hinzugefügt wurde
- May 14, 2025 at 05:15 am
- Dies ist ein bedeutender Meilenstein für Coinbase und die gesamte Kryptoindustrie. Der S & P 500 ist einer der Hauptindikatoren für den Zustand der US -Wirtschaft
-
- Ruvi (Ruvi) ist das nächste Solana (SOL), das einmal in einem Lifetimerhut durch seinen Vorverkauf bietet
- May 14, 2025 at 05:10 am
- Schnelle Transaktionen und ein robustes Ökosystem haben Solana als eine der Top -Blockchain -Plattformen verfestigt. Derzeit bei 173,18 USD mit einem Rückgang von 0,74% in den letzten 24 Stunden