Marktkapitalisierung: $3.3104T -0.610%
Volumen (24h): $180.7418B 40.450%
  • Marktkapitalisierung: $3.3104T -0.610%
  • Volumen (24h): $180.7418B 40.450%
  • Angst- und Gier-Index:
  • Marktkapitalisierung: $3.3104T -0.610%
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
Top -Nachrichten
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
bitcoin
bitcoin

$101937.247657 USD

-1.92%

ethereum
ethereum

$2440.088811 USD

-3.10%

tether
tether

$1.000193 USD

0.01%

xrp
xrp

$2.459614 USD

3.05%

bnb
bnb

$645.663399 USD

-1.18%

solana
solana

$169.340061 USD

-2.43%

usd-coin
usd-coin

$1.000185 USD

0.04%

dogecoin
dogecoin

$0.221860 USD

-5.74%

cardano
cardano

$0.788860 USD

-2.57%

tron
tron

$0.263711 USD

-1.20%

sui
sui

$3.873057 USD

-2.82%

chainlink
chainlink

$16.315579 USD

-4.09%

avalanche
avalanche

$23.848565 USD

-4.36%

stellar
stellar

$0.301245 USD

-3.23%

shiba-inu
shiba-inu

$0.000015 USD

-6.14%

Nachrichtenartikel zu Kryptowährungen

GTE-Moderncolbert-V1: Ein neues hochmodernes Modell für das langen semantische Abruf

May 12, 2025 at 02:08 am

In diesem Artikel wird GTE-Moderncolbert-V1 vorgestellt, ein neues Modell, das auf der Colbert-Architektur aufbaut und die Modernbert Foundation integriert

GTE-Moderncolbert-V1: Ein neues hochmodernes Modell für das langen semantische Abruf

Researchers from LightOn AI have presented GTE-ModernColBERT-v1, a model that builds upon the ColBERT architecture and integrates the ModernBERT foundation developed by Alibaba-NLP. Their aim was to distill knowledge from a base model and optimize it on the MS MARCO dataset, hoping to overcome limitations related to context length and semantic preservation. The model was trained using 300-token document inputs but demonstrated the ability to handle inputs as large as 8192 tokens, making it suitable for indexing and retrieving longer documents with minimal information loss. This work was deployed through PyLate, a library that simplifies the indexing and querying of documents using dense vector models. The model performs token-level semantic matching using the MaxSim operator, which evaluates similarity between individual token embeddings rather than compressing them into a single vector.

Forscher von Lighton AI haben GTE-Moderncolbert-V1 vorgestellt, ein Modell, das auf der Colbert-Architektur aufbaut und die von Alibaba-NLP entwickelte Modernbert-Stiftung integriert. Ihr Ziel war es, Wissen von einem Basismodell aus zu destillieren und auf dem MS Marco -Datensatz zu optimieren, in der Hoffnung, Einschränkungen im Zusammenhang mit der Kontextlänge und der semantischen Erhaltung zu überwinden. Das Modell wurde unter Verwendung von 300 geführten Dokumenteingängen trainiert, zeigte jedoch die Fähigkeit, Eingänge von bis zu 8192 Token zu verarbeiten, was es zum Indexieren und Abrufen längerer Dokumente mit minimalem Informationsverlust eignet. Diese Arbeit wurde über Pylate eingesetzt, eine Bibliothek, die die Indexierung und Abfragung von Dokumenten unter Verwendung dichter Vektormodelle vereinfacht. Das Modell führt mit dem Maxsim-Operator eine semantische Übereinstimmung auf Token-Ebene durch, die die Ähnlichkeit zwischen einzelnen Token-Einbettungen bewertet, anstatt sie in einen einzelnen Vektor zu komprimieren.

GTE-ModernColBERT-v1 transforms text into 128-dimensional dense vectors and uses the MaxSim function for computing semantic similarity between query and document tokens, preserving granular context and enabling more refined retrieval. It integrates with PyLate’s Voyager indexing system, which manages large-scale embeddings using an efficient HNSW (Hierarchical Navigable Small World) index. Once documents are embedded and stored, users can retrieve the top-k most relevant documents using the ColBERT retriever. This process supports full pipeline indexing and lightweight reranking for first-stage retrieval systems. PyLate offers flexibility in modifying document length during inference, allowing users to handle texts much longer than the model was originally trained on, an advantage rarely seen in standard embedding models.

GTE-Moderncolbert-V1 verwandelt Text in 128-dimensionale dichte Vektoren und verwendet die maximale Funktion zur Berechnung der semantischen Ähnlichkeit zwischen Abfragen- und Dokumenten-Token, wodurch ein granularer Kontext beibehalten und das raffinere Abruf ermöglicht wird. Es integriert sich in das Voyager-Indexierungssystem von Pylate, das groß angelegte Einbettungen unter Verwendung eines effizienten HNSW-Index (Hierarchical Navigable Small World) verwaltet. Sobald Dokumente eingebettet und gespeichert sind, können Benutzer die am besten relevanten Dokumente mit dem Colbert Retriever abrufen. Dieser Prozess unterstützt die vollständige Pipeline-Indexierung und das leichte Umbau für Abrufsysteme in der ersten Stufe. Pylate bietet Flexibilität bei der Änderung der Dokumentlänge während der Inferenz und ermöglicht es den Benutzern, Texte zu verarbeiten, als das Modell ursprünglich geschult wurde, ein Vorteil, der in Standard -Einbettungsmodellen selten zu sehen ist.

On the NanoClimate dataset, the model achieved a MaxSim Accuracy@1 of 0.360, Accuracy@5 of 0.780, and Accuracy@10 of 0.860. Precision and recall scores were consistent, with MaxSim Recall@3 reaching 0.289 and Precision@3 at 0.233. These scores highlight the model’s capability to retrieve accurate results even in longer-context retrieval scenarios.

Auf dem Nanoklimat -Datensatz erreichte das Modell eine Maxsim -Genauigkeit@1 von 0,360, Genauigkeit@5 von 0,780 und Genauigkeit bei 10 von 0,860. Präzisions- und Rückrufwerte waren konsistent, wobei Maxsim -Rückruf@3 0,289 und Precision@3 bei 0,233 erreichte. Diese Punkte unterstreichen die Fähigkeit des Modells, auch in längeren Kontext-Abrufszenarien genaue Ergebnisse abzurufen.

When evaluated on the BEIR benchmark, GTE-ModernColBERT outperformed previous models, including ColBERT-small. It scored 54.89 on the FiQA2018 dataset, 48.51 on NFCorpus, and 83.59 on the TREC-COVID task. The average performance across these tasks was significantly higher than baseline ColBERT variants. Notably, in the LongEmbed benchmark, the model scored 88.39 in Mean score and 78.82 in LEMB Narrative QA Retrieval, surpassing other leading models such as voyage-multilingual-2 (79.17) and bge-m3 (58.73). These results suggest that the model offers robust generalization and effective handling of long-context documents, outperforming many contemporaries by almost 10 points on long-context tasks. It is also highly adaptable to different retrieval pipelines, supporting both indexing and reranking implementations, making it a versatile solution for scalable semantic search.

Bei der Bewertung des BEIR-Benchmarks übertraf GTE-Moderncolbert die Vorgängermodelle, einschließlich Colbert-Small. Auf dem FIQA2018-Datensatz von 54,89, 48,51 auf NFCorpus und 83,59 für die TREC-Covid-Aufgabe. Die durchschnittliche Leistung über diese Aufgaben war signifikant höher als die Colbert -Varianten der Basis. Bemerkenswerterweise erzielte das Modell im länglichen Benchmark 88,39 in der Mittelwert und 78,82 im QA-Abruf von LEMB-Erzählung, wobei andere führende Modelle wie Voyage-Multoringual-2 (79,17) und BGE-M3 (58,73) übertroffen wurden. Diese Ergebnisse legen nahe, dass das Modell eine robuste Verallgemeinerung und eine effektive Behandlung von Dokumenten mit langer Kontext bietet und viele Zeitgenossen um fast 10 Punkte bei lang Kontextaufgaben übertreffen. Es ist auch sehr anpassungsfähig an verschiedene Abrufpipelines, wodurch sowohl die Indexierung als auch die Umstände von Implementierungen unterstützt werden, was es zu einer vielseitigen Lösung für skalierbare semantische Suche macht.

Several Key Highlights from the Research on GTE-ModernColBERT-v1 include:This research provides a meaningful contribution to long-document semantic retrieval. By combining the strengths of token-level matching with scalable architecture, GTE-ModernColBERT-v1 addresses several bottlenecks that current models face. It introduces a reliable method for processing and retrieving semantically rich information from extended contexts, significantly improving precision and recall in longer-context retrieval scenarios.

Zu den wichtigsten Highlights aus der Forschung zu GTE-Moderncolbert-V1 gehören: Diese Forschung bietet einen sinnvollen Beitrag zum semantischen langdokumentierten Retrieval. Durch die Kombination der Stärken der mit skalierbaren Architektur entsprechenden Token-Level-Ebene befasst sich GTE-Moderncolbert-V1 mit mehreren Engpässen, denen aktuelle Modelle konfrontiert sind. Es führt eine zuverlässige Methode zur Verarbeitung und Abrufen semantisch reichhaltiger Informationen aus erweiterten Kontexten ein, wodurch die Präzision und den Rückruf in länger kontextlichen Abrufszenarien erheblich verbessert werden.

Haftungsausschluss:info@kdj.com

Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!

Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.

Weitere Artikel veröffentlicht am May 14, 2025