US-Vorbörse: Starbucks, Freeport-McMoran, Verona Pharma, WPP und T-Mobile mit viel Bewegung
Investing.com -- Alibaba (NYSE:BABA) hat die Qwen3-Embedding- und Qwen3-Reranker-Serie eingeführt, die neue Maßstäbe in der mehrsprachigen Texteinbettung und Relevanzrangfolge setzt. Die Serie, die Modelle für Texteinbettung, Abruf und Neuordnung umfasst, unterstützt 119 Sprachen und ist in den Versionen 0,6B, 4B und 8B verfügbar.
Die Qwen3-Embedding- und Qwen3-Reranker-Serie basieren auf dem Qwen3-Basismodell, das über robuste mehrsprachige Textverständnisfähigkeiten verfügt. Diese neuen Modelle haben in mehreren Benchmarks für Texteinbettungs- und Neuordnungsaufgaben Spitzenleistungen erzielt. Sie werden unter der Apache 2.0-Lizenz auf Hugging Face, GitHub und ModelScope als Open Source angeboten und können über API auf Alibaba Cloud genutzt werden.
Die Qwen3-Embedding-Serie bietet verschiedene Größen für Embedding- und Reranking-Modelle und bedient damit verschiedene Anwendungsfälle, bei denen Effizienz und Effektivität im Vordergrund stehen. Das Embedding-Modell der Größe 8B belegt mit einer Punktzahl von 70,58 den ersten Platz in der MTEB-mehrsprachigen Rangliste (Stand: 05.06.2025). Die Reranking-Modelle überzeugen in Textabrufszenarien und verbessern die Suchrelevanz erheblich.
Die Qwen3-Embedding-Serie unterstützt über 100 Sprachen, einschließlich verschiedener Programmiersprachen, und bietet robuste mehrsprachige, sprachübergreifende und Code-Abruffunktionen. Die Modelle wurden mit Dual-Encoder- und Cross-Encoder-Architekturen entwickelt und zielen darauf ab, die Textverständnisfähigkeiten des Basismodells vollständig zu bewahren und zu verbessern.
Das Trainingsframework für die Qwen3-Embedding-Serie folgt dem mehrstufigen Trainingsparadigma der GTE-Qwen-Serie. Dies umfasst eine dreistufige Trainingsstruktur für das Embedding-Modell und eine direkte Verwendung hochwertiger gekennzeichneter Daten für das überwachte Training des Reranking-Modells, was die Trainingseffizienz verbessert.
Im Rahmen zukünftiger Arbeiten plant Alibaba, das Qwen-Basismodell weiter zu optimieren, um die Trainingseffizienz von Texteinbettungen und Reranking-Modellen zu verbessern. Dies wird die Einsatzleistung in verschiedenen Szenarien verbessern. Darüber hinaus plant das Unternehmen, sein multimodales Repräsentationssystem zu erweitern, um modalitätsübergreifende semantische Verständnisfähigkeiten zu etablieren.
Diese Übersetzung wurde mithilfe künstlicher Intelligenz erstellt. Weitere Informationen entnehmen Sie bitte unseren Nutzungsbedingungen.