Add new SentenceTransformer model
Browse files- 1_Pooling/config.json +10 -0
- README.md +767 -0
- config.json +26 -0
- config_sentence_transformers.json +13 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +58 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": true,
|
4 |
+
"pooling_mode_mean_tokens": false,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,767 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- en
|
4 |
+
license: apache-2.0
|
5 |
+
tags:
|
6 |
+
- sentence-transformers
|
7 |
+
- sentence-similarity
|
8 |
+
- feature-extraction
|
9 |
+
- generated_from_trainer
|
10 |
+
- dataset_size:5115
|
11 |
+
- loss:MatryoshkaLoss
|
12 |
+
- loss:MultipleNegativesRankingLoss
|
13 |
+
base_model: mixedbread-ai/mxbai-embed-large-v1
|
14 |
+
widget:
|
15 |
+
- source_sentence: gepackte Zahl in ein Integerfeld stellen, oder was geschieht, wenn
|
16 |
+
Sie eine gepackte Zahl zum Inhalt eines Datumsfeldes addieren, oder was geschieht,
|
17 |
+
wenn Sie eine gepackte Zahl in ein Cha- racter-Feld schreiben. Lassen Sie uns
|
18 |
+
hierzu eine Konvertierungsregel als Beispiel ansehen. Dezimalzahl in ganze Zahl
|
19 |
+
umwandeln Ist der Quelltyp ein Datenobjekt vom Typ p und der Zieltyp ein Daten-
|
20 |
+
objekt vom Typ i (eine ganze Zahl), rundet das System die Dezimalstel- len des
|
21 |
+
Quellfeldes und stellt den Inhalt rechtsbündig in das Zielfeld. I d Zi lf ld i
|
22 |
+
Lä h i h d i d li k i N ll
|
23 |
+
sentences:
|
24 |
+
- Wie kann eine selbst entwickelte Pflegetransaktion für Geschäftsregeln oder sonstige
|
25 |
+
Customizing-Inhalte helfen?
|
26 |
+
- Welche Technologien bietet der ABAP-Stack zur Schnittstellenentwicklung an?
|
27 |
+
- Welche Gründe sprechen gegen die Verwendung von Tabellen mit Kopfzeile in der
|
28 |
+
heutigen ABAP-Entwicklung?
|
29 |
+
- source_sentence: Systemkontext Das SAP BTP, ABAP Environment ist eine rein technische
|
30 |
+
Plattform (ohne installierte Anwendungssoftware) und in einen bestimmten Systemkon-
|
31 |
+
text eingebettet, innerhalb dessen Sie Anwendungen entwickeln und be- treiben
|
32 |
+
können (siehe Abbildung 12.1). ABAP Development Tools SAP Fiori Tools Git- Repository
|
33 |
+
abapGit heißt im unternehmenseigenen Netzwerk) installiert und baut ausgehend
|
34 |
+
von diesem lokalen Netzwerk eine sichere Verbindung zur SAP BTP auf. SAP-Fiori-Apps
|
35 |
+
Zur Bereitstellung Ihrer RAP-Anwendungen besitzt das ABAP Environment ein eigenes
|
36 |
+
SAP Fiori Launchpad, das als Eintrittspunkt für verschiedene SAP-Fiori-Apps dienen
|
37 |
+
kann und das Sie über einen Webbrowser erreichen (siehe Abschnitt 12.3, »SAP-Fiori-Apps
|
38 |
+
bereitstellen und Berechtigungen vergeben«). Ihre eigenen
|
39 |
+
sentences:
|
40 |
+
- Wie kann man die Vorschau in der Inbox des Benutzers programmieren, sodass sie
|
41 |
+
leistungsfähig und schnell ist und unerträgliche Wartezeiten bei der Arbeit mit
|
42 |
+
dem SAP Business Workplace verhindert?
|
43 |
+
- Was passiert beim Debuggen, wenn Checkpoints durch einen Doppelklick auf die Anweisung
|
44 |
+
und Bestätigen angelegt werden?
|
45 |
+
- Welche Tools werden im ABAP Environment für die Entwicklung von SAP Fiori-Anwendungen
|
46 |
+
sowie für das Deployment und die Bereitstellung dieser Anwendungen verwendet,
|
47 |
+
wobei auch die Verwendung der technischen Infrastrukturkomponenten berücksichtigt
|
48 |
+
werden muss?
|
49 |
+
- source_sentence: "sind das MVC-Modell und der Datenteil des (OData-) Services verpflichtend.\
|
50 |
+
\ Die Annotationen und UI-Anpassungen (dazu im Folgenden mehr) dienen der effizienteren\
|
51 |
+
\ Entwicklung und Erweiterbar- keit. UI Model View Controller Annotationen UI-Anpassungsmodus\
|
52 |
+
\ adaptieren/ erweitern nen, ist beschränkt. Abschnitt 3.2.4, »Anwendungen«, listet\
|
53 |
+
\ die Möglich- keiten auf, die zum Zeitpunkt der Drucklegung dieses Buches bestehen.\
|
54 |
+
\ In diesem Abschnitt beschreiben wir auch, wie Sie diese Änderungen als Anwendungsexperte\
|
55 |
+
\ an den betriebenen Oberflächen durchführen. Die SAP Web IDE auf der SAP Cloud\
|
56 |
+
\ Platform bietet eine alternative Möglich- keit, um solche Anpassungen als Entwickler\
|
57 |
+
\ zu erstellen. \x02 Annotationen Annotationen können im OData-Service über Erweiterungstechniken\
|
58 |
+
\ der jeweiligen"
|
59 |
+
sentences:
|
60 |
+
- Wie kann SAP Screen Personas bei der Implementierung eines ABAP-Skriptes, das
|
61 |
+
unter einer Sekunde laufen muss, unterstützen?
|
62 |
+
- Wie müssen die Verarbeitungszeitpunkte im PBO-Block, wenn eine interne Tabelle
|
63 |
+
mit doppelten Einträgen verwendet wird und die Datenbanktabelle komplett gelesen
|
64 |
+
werden soll?
|
65 |
+
- Wie kann ich den Pretty-Printer über (F1) nutzen?
|
66 |
+
- source_sentence: zu dem passt, was das Frame- work erwartet. Sie müssen gewissermaßen
|
67 |
+
sicherstellen, dass sie auch die gleiche Sprache sprechen, wenn der ersehnte Anruf
|
68 |
+
aus Hollywood kommt. Wichtige Frameworks im SAP-Standard Was macht einen guten
|
69 |
+
und erfahrenen ABAP-Programmierer aus? Darüber kann man viele interessante Diskussionen
|
70 |
+
führen. Eine der wesentlichen Komponenten dürfte die Kenntnis der im ABAP-Server
|
71 |
+
nutzbaren Frameworks sein. Die im Folgenden vorgestellten Frameworks sind in erster
|
72 |
+
Linie für Sie Web Dynpro ABAP Nachfolger der klassischen Dynpros Web Dynpro ABAP
|
73 |
+
ist eine der wichtigsten Neuerungen der letzten zehn Jahre in der SAP-Welt. Es
|
74 |
+
handelt sich dabei um eine Oberflä- chentechnologie, also
|
75 |
+
sentences:
|
76 |
+
- Was passiert, wenn man versucht, einen Datensatz in einer Datenbanktabelle zu
|
77 |
+
modifizieren, aber kein Satz mit demselben Primärschlüssel existiert, und wie
|
78 |
+
kann man den Returncode identifizieren?
|
79 |
+
- Wie kann man die Rollenzuordnung zu seinem Benutzer in der Benutzerpflege (SU01)
|
80 |
+
anzeigen lassen?
|
81 |
+
- Was sind die Vorteile von Web Dynpro ABAP?
|
82 |
+
- source_sentence: angegebenen anderen Objektins- tanz als Rücksprungziel definieren.
|
83 |
+
Selbstverständlich sind auch Auf- rufe statischer Methoden möglich. Exceptions
|
84 |
+
auswerten Returncode auswerten Nach Absetzen des Funktionsbausteinaufrufs erhalten
|
85 |
+
Sie sofort die ll b d bl f k d d lung. Für jede Servergruppe werden bestimmte
|
86 |
+
Schwellwerte gepflegt, die bestimmen, in welchem Umfang die Mitglieder der Gruppe
|
87 |
+
Ressour- cen für asynchrone RFCs zur Verfügung stellen. Setzt ein Programm einen
|
88 |
+
asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe ab (DESTINATION
|
89 |
+
IN GROUP), so prüft das System automatisch die Auslastung und ermittelt die Instanz,
|
90 |
+
die die Anforderung bearbeiten wird. Neben den explizit in der Transaktion RZ12
|
91 |
+
definierten Servergruppen gibt es
|
92 |
+
sentences:
|
93 |
+
- Was passiert, wenn ein Programm einen asynchronen RFC-Funktionsbausteinaufruf
|
94 |
+
gegen eine Servergruppe absetzt und die Systeminstanzen bereits auslastet?
|
95 |
+
- Welche Aufgaben kann man im Business Workplace des SAP-Systems erledigen?
|
96 |
+
- Wie kann man das Visitor Pattern in ABAP umsetzen, indem man definiert, wie ein
|
97 |
+
abstraktes Element von einem Besucher besucht werden soll?
|
98 |
+
pipeline_tag: sentence-similarity
|
99 |
+
library_name: sentence-transformers
|
100 |
+
metrics:
|
101 |
+
- cosine_accuracy@1
|
102 |
+
- cosine_accuracy@3
|
103 |
+
- cosine_accuracy@5
|
104 |
+
- cosine_accuracy@10
|
105 |
+
- cosine_precision@1
|
106 |
+
- cosine_precision@3
|
107 |
+
- cosine_precision@5
|
108 |
+
- cosine_precision@10
|
109 |
+
- cosine_recall@1
|
110 |
+
- cosine_recall@3
|
111 |
+
- cosine_recall@5
|
112 |
+
- cosine_recall@10
|
113 |
+
- cosine_ndcg@10
|
114 |
+
- cosine_mrr@10
|
115 |
+
- cosine_map@100
|
116 |
+
model-index:
|
117 |
+
- name: mixedbread-ai/mxbai-embed-large-v1
|
118 |
+
results:
|
119 |
+
- task:
|
120 |
+
type: information-retrieval
|
121 |
+
name: Information Retrieval
|
122 |
+
dataset:
|
123 |
+
name: dim 768
|
124 |
+
type: dim_768
|
125 |
+
metrics:
|
126 |
+
- type: cosine_accuracy@1
|
127 |
+
value: 0.08963093145869948
|
128 |
+
name: Cosine Accuracy@1
|
129 |
+
- type: cosine_accuracy@3
|
130 |
+
value: 0.20210896309314588
|
131 |
+
name: Cosine Accuracy@3
|
132 |
+
- type: cosine_accuracy@5
|
133 |
+
value: 0.2601054481546573
|
134 |
+
name: Cosine Accuracy@5
|
135 |
+
- type: cosine_accuracy@10
|
136 |
+
value: 0.4182776801405975
|
137 |
+
name: Cosine Accuracy@10
|
138 |
+
- type: cosine_precision@1
|
139 |
+
value: 0.08963093145869948
|
140 |
+
name: Cosine Precision@1
|
141 |
+
- type: cosine_precision@3
|
142 |
+
value: 0.06736965436438194
|
143 |
+
name: Cosine Precision@3
|
144 |
+
- type: cosine_precision@5
|
145 |
+
value: 0.05202108963093146
|
146 |
+
name: Cosine Precision@5
|
147 |
+
- type: cosine_precision@10
|
148 |
+
value: 0.041827768014059755
|
149 |
+
name: Cosine Precision@10
|
150 |
+
- type: cosine_recall@1
|
151 |
+
value: 0.08963093145869948
|
152 |
+
name: Cosine Recall@1
|
153 |
+
- type: cosine_recall@3
|
154 |
+
value: 0.20210896309314588
|
155 |
+
name: Cosine Recall@3
|
156 |
+
- type: cosine_recall@5
|
157 |
+
value: 0.2601054481546573
|
158 |
+
name: Cosine Recall@5
|
159 |
+
- type: cosine_recall@10
|
160 |
+
value: 0.4182776801405975
|
161 |
+
name: Cosine Recall@10
|
162 |
+
- type: cosine_ndcg@10
|
163 |
+
value: 0.2286145159685347
|
164 |
+
name: Cosine Ndcg@10
|
165 |
+
- type: cosine_mrr@10
|
166 |
+
value: 0.17133442129048454
|
167 |
+
name: Cosine Mrr@10
|
168 |
+
- type: cosine_map@100
|
169 |
+
value: 0.18651234259488886
|
170 |
+
name: Cosine Map@100
|
171 |
+
- task:
|
172 |
+
type: information-retrieval
|
173 |
+
name: Information Retrieval
|
174 |
+
dataset:
|
175 |
+
name: dim 512
|
176 |
+
type: dim_512
|
177 |
+
metrics:
|
178 |
+
- type: cosine_accuracy@1
|
179 |
+
value: 0.09490333919156414
|
180 |
+
name: Cosine Accuracy@1
|
181 |
+
- type: cosine_accuracy@3
|
182 |
+
value: 0.20035149384885764
|
183 |
+
name: Cosine Accuracy@3
|
184 |
+
- type: cosine_accuracy@5
|
185 |
+
value: 0.2618629173989455
|
186 |
+
name: Cosine Accuracy@5
|
187 |
+
- type: cosine_accuracy@10
|
188 |
+
value: 0.4147627416520211
|
189 |
+
name: Cosine Accuracy@10
|
190 |
+
- type: cosine_precision@1
|
191 |
+
value: 0.09490333919156414
|
192 |
+
name: Cosine Precision@1
|
193 |
+
- type: cosine_precision@3
|
194 |
+
value: 0.06678383128295255
|
195 |
+
name: Cosine Precision@3
|
196 |
+
- type: cosine_precision@5
|
197 |
+
value: 0.0523725834797891
|
198 |
+
name: Cosine Precision@5
|
199 |
+
- type: cosine_precision@10
|
200 |
+
value: 0.0414762741652021
|
201 |
+
name: Cosine Precision@10
|
202 |
+
- type: cosine_recall@1
|
203 |
+
value: 0.09490333919156414
|
204 |
+
name: Cosine Recall@1
|
205 |
+
- type: cosine_recall@3
|
206 |
+
value: 0.20035149384885764
|
207 |
+
name: Cosine Recall@3
|
208 |
+
- type: cosine_recall@5
|
209 |
+
value: 0.2618629173989455
|
210 |
+
name: Cosine Recall@5
|
211 |
+
- type: cosine_recall@10
|
212 |
+
value: 0.4147627416520211
|
213 |
+
name: Cosine Recall@10
|
214 |
+
- type: cosine_ndcg@10
|
215 |
+
value: 0.23048397423019637
|
216 |
+
name: Cosine Ndcg@10
|
217 |
+
- type: cosine_mrr@10
|
218 |
+
value: 0.1748068178648144
|
219 |
+
name: Cosine Mrr@10
|
220 |
+
- type: cosine_map@100
|
221 |
+
value: 0.19003346049167824
|
222 |
+
name: Cosine Map@100
|
223 |
+
- task:
|
224 |
+
type: information-retrieval
|
225 |
+
name: Information Retrieval
|
226 |
+
dataset:
|
227 |
+
name: dim 256
|
228 |
+
type: dim_256
|
229 |
+
metrics:
|
230 |
+
- type: cosine_accuracy@1
|
231 |
+
value: 0.09314586994727592
|
232 |
+
name: Cosine Accuracy@1
|
233 |
+
- type: cosine_accuracy@3
|
234 |
+
value: 0.20035149384885764
|
235 |
+
name: Cosine Accuracy@3
|
236 |
+
- type: cosine_accuracy@5
|
237 |
+
value: 0.2548330404217926
|
238 |
+
name: Cosine Accuracy@5
|
239 |
+
- type: cosine_accuracy@10
|
240 |
+
value: 0.39718804920913886
|
241 |
+
name: Cosine Accuracy@10
|
242 |
+
- type: cosine_precision@1
|
243 |
+
value: 0.09314586994727592
|
244 |
+
name: Cosine Precision@1
|
245 |
+
- type: cosine_precision@3
|
246 |
+
value: 0.06678383128295255
|
247 |
+
name: Cosine Precision@3
|
248 |
+
- type: cosine_precision@5
|
249 |
+
value: 0.050966608084358524
|
250 |
+
name: Cosine Precision@5
|
251 |
+
- type: cosine_precision@10
|
252 |
+
value: 0.03971880492091388
|
253 |
+
name: Cosine Precision@10
|
254 |
+
- type: cosine_recall@1
|
255 |
+
value: 0.09314586994727592
|
256 |
+
name: Cosine Recall@1
|
257 |
+
- type: cosine_recall@3
|
258 |
+
value: 0.20035149384885764
|
259 |
+
name: Cosine Recall@3
|
260 |
+
- type: cosine_recall@5
|
261 |
+
value: 0.2548330404217926
|
262 |
+
name: Cosine Recall@5
|
263 |
+
- type: cosine_recall@10
|
264 |
+
value: 0.39718804920913886
|
265 |
+
name: Cosine Recall@10
|
266 |
+
- type: cosine_ndcg@10
|
267 |
+
value: 0.22531472414554513
|
268 |
+
name: Cosine Ndcg@10
|
269 |
+
- type: cosine_mrr@10
|
270 |
+
value: 0.1728798783719698
|
271 |
+
name: Cosine Mrr@10
|
272 |
+
- type: cosine_map@100
|
273 |
+
value: 0.18866030878645856
|
274 |
+
name: Cosine Map@100
|
275 |
+
- task:
|
276 |
+
type: information-retrieval
|
277 |
+
name: Information Retrieval
|
278 |
+
dataset:
|
279 |
+
name: dim 128
|
280 |
+
type: dim_128
|
281 |
+
metrics:
|
282 |
+
- type: cosine_accuracy@1
|
283 |
+
value: 0.0773286467486819
|
284 |
+
name: Cosine Accuracy@1
|
285 |
+
- type: cosine_accuracy@3
|
286 |
+
value: 0.18453427065026362
|
287 |
+
name: Cosine Accuracy@3
|
288 |
+
- type: cosine_accuracy@5
|
289 |
+
value: 0.26537785588752194
|
290 |
+
name: Cosine Accuracy@5
|
291 |
+
- type: cosine_accuracy@10
|
292 |
+
value: 0.39718804920913886
|
293 |
+
name: Cosine Accuracy@10
|
294 |
+
- type: cosine_precision@1
|
295 |
+
value: 0.0773286467486819
|
296 |
+
name: Cosine Precision@1
|
297 |
+
- type: cosine_precision@3
|
298 |
+
value: 0.061511423550087874
|
299 |
+
name: Cosine Precision@3
|
300 |
+
- type: cosine_precision@5
|
301 |
+
value: 0.053075571177504395
|
302 |
+
name: Cosine Precision@5
|
303 |
+
- type: cosine_precision@10
|
304 |
+
value: 0.03971880492091388
|
305 |
+
name: Cosine Precision@10
|
306 |
+
- type: cosine_recall@1
|
307 |
+
value: 0.0773286467486819
|
308 |
+
name: Cosine Recall@1
|
309 |
+
- type: cosine_recall@3
|
310 |
+
value: 0.18453427065026362
|
311 |
+
name: Cosine Recall@3
|
312 |
+
- type: cosine_recall@5
|
313 |
+
value: 0.26537785588752194
|
314 |
+
name: Cosine Recall@5
|
315 |
+
- type: cosine_recall@10
|
316 |
+
value: 0.39718804920913886
|
317 |
+
name: Cosine Recall@10
|
318 |
+
- type: cosine_ndcg@10
|
319 |
+
value: 0.21527271607083312
|
320 |
+
name: Cosine Ndcg@10
|
321 |
+
- type: cosine_mrr@10
|
322 |
+
value: 0.1597720869249868
|
323 |
+
name: Cosine Mrr@10
|
324 |
+
- type: cosine_map@100
|
325 |
+
value: 0.17541010404455568
|
326 |
+
name: Cosine Map@100
|
327 |
+
- task:
|
328 |
+
type: information-retrieval
|
329 |
+
name: Information Retrieval
|
330 |
+
dataset:
|
331 |
+
name: dim 64
|
332 |
+
type: dim_64
|
333 |
+
metrics:
|
334 |
+
- type: cosine_accuracy@1
|
335 |
+
value: 0.06678383128295255
|
336 |
+
name: Cosine Accuracy@1
|
337 |
+
- type: cosine_accuracy@3
|
338 |
+
value: 0.1687170474516696
|
339 |
+
name: Cosine Accuracy@3
|
340 |
+
- type: cosine_accuracy@5
|
341 |
+
value: 0.2530755711775044
|
342 |
+
name: Cosine Accuracy@5
|
343 |
+
- type: cosine_accuracy@10
|
344 |
+
value: 0.38137082601054484
|
345 |
+
name: Cosine Accuracy@10
|
346 |
+
- type: cosine_precision@1
|
347 |
+
value: 0.06678383128295255
|
348 |
+
name: Cosine Precision@1
|
349 |
+
- type: cosine_precision@3
|
350 |
+
value: 0.056239015817223195
|
351 |
+
name: Cosine Precision@3
|
352 |
+
- type: cosine_precision@5
|
353 |
+
value: 0.050615114235500885
|
354 |
+
name: Cosine Precision@5
|
355 |
+
- type: cosine_precision@10
|
356 |
+
value: 0.03813708260105448
|
357 |
+
name: Cosine Precision@10
|
358 |
+
- type: cosine_recall@1
|
359 |
+
value: 0.06678383128295255
|
360 |
+
name: Cosine Recall@1
|
361 |
+
- type: cosine_recall@3
|
362 |
+
value: 0.1687170474516696
|
363 |
+
name: Cosine Recall@3
|
364 |
+
- type: cosine_recall@5
|
365 |
+
value: 0.2530755711775044
|
366 |
+
name: Cosine Recall@5
|
367 |
+
- type: cosine_recall@10
|
368 |
+
value: 0.38137082601054484
|
369 |
+
name: Cosine Recall@10
|
370 |
+
- type: cosine_ndcg@10
|
371 |
+
value: 0.1993984243853605
|
372 |
+
name: Cosine Ndcg@10
|
373 |
+
- type: cosine_mrr@10
|
374 |
+
value: 0.14423661673222307
|
375 |
+
name: Cosine Mrr@10
|
376 |
+
- type: cosine_map@100
|
377 |
+
value: 0.1585449114563028
|
378 |
+
name: Cosine Map@100
|
379 |
+
---
|
380 |
+
|
381 |
+
# mixedbread-ai/mxbai-embed-large-v1
|
382 |
+
|
383 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [mixedbread-ai/mxbai-embed-large-v1](https://huggingface.co/mixedbread-ai/mxbai-embed-large-v1) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
384 |
+
|
385 |
+
## Model Details
|
386 |
+
|
387 |
+
### Model Description
|
388 |
+
- **Model Type:** Sentence Transformer
|
389 |
+
- **Base model:** [mixedbread-ai/mxbai-embed-large-v1](https://huggingface.co/mixedbread-ai/mxbai-embed-large-v1) <!-- at revision e7857440379da569f68f19e8403b69cd7be26e50 -->
|
390 |
+
- **Maximum Sequence Length:** 512 tokens
|
391 |
+
- **Output Dimensionality:** 1024 dimensions
|
392 |
+
- **Similarity Function:** Cosine Similarity
|
393 |
+
- **Training Dataset:**
|
394 |
+
- json
|
395 |
+
- **Language:** en
|
396 |
+
- **License:** apache-2.0
|
397 |
+
|
398 |
+
### Model Sources
|
399 |
+
|
400 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
401 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
402 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
403 |
+
|
404 |
+
### Full Model Architecture
|
405 |
+
|
406 |
+
```
|
407 |
+
SentenceTransformer(
|
408 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
|
409 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
410 |
+
)
|
411 |
+
```
|
412 |
+
|
413 |
+
## Usage
|
414 |
+
|
415 |
+
### Direct Usage (Sentence Transformers)
|
416 |
+
|
417 |
+
First install the Sentence Transformers library:
|
418 |
+
|
419 |
+
```bash
|
420 |
+
pip install -U sentence-transformers
|
421 |
+
```
|
422 |
+
|
423 |
+
Then you can load this model and run inference.
|
424 |
+
```python
|
425 |
+
from sentence_transformers import SentenceTransformer
|
426 |
+
|
427 |
+
# Download from the 🤗 Hub
|
428 |
+
model = SentenceTransformer("kenoc/mxbai-abat-matryoshka")
|
429 |
+
# Run inference
|
430 |
+
sentences = [
|
431 |
+
'angegebenen anderen Objektins- tanz als Rücksprungziel definieren. Selbstverständlich sind auch Auf- rufe statischer Methoden möglich. Exceptions auswerten Returncode auswerten Nach Absetzen des Funktionsbausteinaufrufs erhalten Sie sofort die ll b d bl f k d d lung. Für jede Servergruppe werden bestimmte Schwellwerte gepflegt, die bestimmen, in welchem Umfang die Mitglieder der Gruppe Ressour- cen für asynchrone RFCs zur Verfügung stellen. Setzt ein Programm einen asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe ab (DESTINATION IN GROUP), so prüft das System automatisch die Auslastung und ermittelt die Instanz, die die Anforderung bearbeiten wird. Neben den explizit in der Transaktion RZ12 definierten Servergruppen gibt es',
|
432 |
+
'Was passiert, wenn ein Programm einen asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe absetzt und die Systeminstanzen bereits auslastet?',
|
433 |
+
'Welche Aufgaben kann man im Business Workplace des SAP-Systems erledigen?',
|
434 |
+
]
|
435 |
+
embeddings = model.encode(sentences)
|
436 |
+
print(embeddings.shape)
|
437 |
+
# [3, 1024]
|
438 |
+
|
439 |
+
# Get the similarity scores for the embeddings
|
440 |
+
similarities = model.similarity(embeddings, embeddings)
|
441 |
+
print(similarities.shape)
|
442 |
+
# [3, 3]
|
443 |
+
```
|
444 |
+
|
445 |
+
<!--
|
446 |
+
### Direct Usage (Transformers)
|
447 |
+
|
448 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
449 |
+
|
450 |
+
</details>
|
451 |
+
-->
|
452 |
+
|
453 |
+
<!--
|
454 |
+
### Downstream Usage (Sentence Transformers)
|
455 |
+
|
456 |
+
You can finetune this model on your own dataset.
|
457 |
+
|
458 |
+
<details><summary>Click to expand</summary>
|
459 |
+
|
460 |
+
</details>
|
461 |
+
-->
|
462 |
+
|
463 |
+
<!--
|
464 |
+
### Out-of-Scope Use
|
465 |
+
|
466 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
467 |
+
-->
|
468 |
+
|
469 |
+
## Evaluation
|
470 |
+
|
471 |
+
### Metrics
|
472 |
+
|
473 |
+
#### Information Retrieval
|
474 |
+
|
475 |
+
* Datasets: `dim_768`, `dim_512`, `dim_256`, `dim_128` and `dim_64`
|
476 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
477 |
+
|
478 |
+
| Metric | dim_768 | dim_512 | dim_256 | dim_128 | dim_64 |
|
479 |
+
|:--------------------|:-----------|:-----------|:-----------|:-----------|:-----------|
|
480 |
+
| cosine_accuracy@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
|
481 |
+
| cosine_accuracy@3 | 0.2021 | 0.2004 | 0.2004 | 0.1845 | 0.1687 |
|
482 |
+
| cosine_accuracy@5 | 0.2601 | 0.2619 | 0.2548 | 0.2654 | 0.2531 |
|
483 |
+
| cosine_accuracy@10 | 0.4183 | 0.4148 | 0.3972 | 0.3972 | 0.3814 |
|
484 |
+
| cosine_precision@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
|
485 |
+
| cosine_precision@3 | 0.0674 | 0.0668 | 0.0668 | 0.0615 | 0.0562 |
|
486 |
+
| cosine_precision@5 | 0.052 | 0.0524 | 0.051 | 0.0531 | 0.0506 |
|
487 |
+
| cosine_precision@10 | 0.0418 | 0.0415 | 0.0397 | 0.0397 | 0.0381 |
|
488 |
+
| cosine_recall@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
|
489 |
+
| cosine_recall@3 | 0.2021 | 0.2004 | 0.2004 | 0.1845 | 0.1687 |
|
490 |
+
| cosine_recall@5 | 0.2601 | 0.2619 | 0.2548 | 0.2654 | 0.2531 |
|
491 |
+
| cosine_recall@10 | 0.4183 | 0.4148 | 0.3972 | 0.3972 | 0.3814 |
|
492 |
+
| **cosine_ndcg@10** | **0.2286** | **0.2305** | **0.2253** | **0.2153** | **0.1994** |
|
493 |
+
| cosine_mrr@10 | 0.1713 | 0.1748 | 0.1729 | 0.1598 | 0.1442 |
|
494 |
+
| cosine_map@100 | 0.1865 | 0.19 | 0.1887 | 0.1754 | 0.1585 |
|
495 |
+
|
496 |
+
<!--
|
497 |
+
## Bias, Risks and Limitations
|
498 |
+
|
499 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
500 |
+
-->
|
501 |
+
|
502 |
+
<!--
|
503 |
+
### Recommendations
|
504 |
+
|
505 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
506 |
+
-->
|
507 |
+
|
508 |
+
## Training Details
|
509 |
+
|
510 |
+
### Training Dataset
|
511 |
+
|
512 |
+
#### json
|
513 |
+
|
514 |
+
* Dataset: json
|
515 |
+
* Size: 5,115 training samples
|
516 |
+
* Columns: <code>positive</code> and <code>anchor</code>
|
517 |
+
* Approximate statistics based on the first 1000 samples:
|
518 |
+
| | positive | anchor |
|
519 |
+
|:--------|:-------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
|
520 |
+
| type | string | string |
|
521 |
+
| details | <ul><li>min: 11 tokens</li><li>mean: 252.94 tokens</li><li>max: 479 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 45.33 tokens</li><li>max: 129 tokens</li></ul> |
|
522 |
+
* Samples:
|
523 |
+
| positive | anchor |
|
524 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
525 |
+
| <code>Standardtabelle ITAB01 wird deklariert; die initiale Spei- cherplatzbelegung wird dem System überlassen. Die interne Tabelle hat zwei Felder, die hinsichtlich ihrer Deklarationen auf das Dictionary verweisen. Zeile 23 bis 26 Die interne Tabelle ITAB02 wird deklariert. Sie soll die Struktur der Zei- g Zeile der Datenbanktabelle. Zeile 52 bis 55 Die Datenbanktabelle wird satzweise in ihre Workarea gelesen. Von dort aus werden namensgleiche Felder in die Kopfzeile der internen Tabelle übertragen. Nach dem Übertragen wird der Inhalt der Kopf- zeile als neue Zeile an den Tabellenrumpf angehängt. Der Inhalt der Kopfzeile bleibt dabei erhalten und wird in diesem Fall durch</code> | <code>Was passiert, wenn eine interne Tabelle ohne Kopfzeile deklariert ist?</code> |
|
526 |
+
| <code>lässt sich leicht ablesen, dass ein Konstruktor mit mehreren optionalen Parametern und einer Dokumenta- tion nötig wäre, um diese Methoden zu ersetzen. Umgebungsunabhängige Wiederholbarkeit Mit dem eigenständigen Aufbau der testrelevanten Daten stellt die Testklasse sicher, dass ihre Testmethoden in jeder Umgebung wiederholbar sind (Repeatable- Prinzip). Tests sind für das Refactoring notwendig, um Regression zu vermei- den. Allerdings müssen Tests auch häufig angepasst werden, wenn sich das Produktdesign durch Refactoring ändert. Wie kann der Auf- wand dafür minimiert werden? Welche Rolle spielen dabei Abhängig- keiten des Testcodes vom Produktcode? Abhängigkeiten können sowohl bei der Erzeugung als auch bei der Verwendung eines</code> | <code>Was ist das Ziel von Refactoring?</code> |
|
527 |
+
| <code>es ermöglicht, Aufgaben innerhalb eines Netzwerks auf Clients und Server zu verteilen. Der Server bietet Dienste an, die die Clients (Anwender-PCs) nutzen. SAP R/3 und später SAP ERP liegt ein drei stufiges Konzept zugrunde: Datenbank, Server und Client Compliance Verfahren zur Einhaltung von Gesetzen und Richtlinien, zum Beispiel des Sarbanes-Oxley Acts oder von Arbeits schutzgesetzen. Mitarbeiter und die externen Dienstleister, die über das »Arbeitszeitblatt« unter ande rem eine Zeiterfassung erlaubt. Customer Relationship Management SAP Customer Relationship Management Customer Service Kundenservice. Die Komponente CS in SAP ERP unterstützt die Abläufe in der Serviceabwicklung, zum Bei spiel die Bearbeitung von</code> | <code>Welche Funktionen bietet SAP CRM?</code> |
|
528 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
529 |
+
```json
|
530 |
+
{
|
531 |
+
"loss": "MultipleNegativesRankingLoss",
|
532 |
+
"matryoshka_dims": [
|
533 |
+
768,
|
534 |
+
512,
|
535 |
+
256,
|
536 |
+
128,
|
537 |
+
64
|
538 |
+
],
|
539 |
+
"matryoshka_weights": [
|
540 |
+
1,
|
541 |
+
1,
|
542 |
+
1,
|
543 |
+
1,
|
544 |
+
1
|
545 |
+
],
|
546 |
+
"n_dims_per_step": -1
|
547 |
+
}
|
548 |
+
```
|
549 |
+
|
550 |
+
### Training Hyperparameters
|
551 |
+
#### Non-Default Hyperparameters
|
552 |
+
|
553 |
+
- `eval_strategy`: epoch
|
554 |
+
- `per_device_train_batch_size`: 16
|
555 |
+
- `per_device_eval_batch_size`: 16
|
556 |
+
- `gradient_accumulation_steps`: 8
|
557 |
+
- `learning_rate`: 2e-05
|
558 |
+
- `num_train_epochs`: 4
|
559 |
+
- `lr_scheduler_type`: cosine
|
560 |
+
- `warmup_ratio`: 0.1
|
561 |
+
- `bf16`: True
|
562 |
+
- `load_best_model_at_end`: True
|
563 |
+
- `optim`: adamw_torch_fused
|
564 |
+
- `gradient_checkpointing`: True
|
565 |
+
- `batch_sampler`: no_duplicates
|
566 |
+
|
567 |
+
#### All Hyperparameters
|
568 |
+
<details><summary>Click to expand</summary>
|
569 |
+
|
570 |
+
- `overwrite_output_dir`: False
|
571 |
+
- `do_predict`: False
|
572 |
+
- `eval_strategy`: epoch
|
573 |
+
- `prediction_loss_only`: True
|
574 |
+
- `per_device_train_batch_size`: 16
|
575 |
+
- `per_device_eval_batch_size`: 16
|
576 |
+
- `per_gpu_train_batch_size`: None
|
577 |
+
- `per_gpu_eval_batch_size`: None
|
578 |
+
- `gradient_accumulation_steps`: 8
|
579 |
+
- `eval_accumulation_steps`: None
|
580 |
+
- `torch_empty_cache_steps`: None
|
581 |
+
- `learning_rate`: 2e-05
|
582 |
+
- `weight_decay`: 0.0
|
583 |
+
- `adam_beta1`: 0.9
|
584 |
+
- `adam_beta2`: 0.999
|
585 |
+
- `adam_epsilon`: 1e-08
|
586 |
+
- `max_grad_norm`: 1.0
|
587 |
+
- `num_train_epochs`: 4
|
588 |
+
- `max_steps`: -1
|
589 |
+
- `lr_scheduler_type`: cosine
|
590 |
+
- `lr_scheduler_kwargs`: {}
|
591 |
+
- `warmup_ratio`: 0.1
|
592 |
+
- `warmup_steps`: 0
|
593 |
+
- `log_level`: passive
|
594 |
+
- `log_level_replica`: warning
|
595 |
+
- `log_on_each_node`: True
|
596 |
+
- `logging_nan_inf_filter`: True
|
597 |
+
- `save_safetensors`: True
|
598 |
+
- `save_on_each_node`: False
|
599 |
+
- `save_only_model`: False
|
600 |
+
- `restore_callback_states_from_checkpoint`: False
|
601 |
+
- `no_cuda`: False
|
602 |
+
- `use_cpu`: False
|
603 |
+
- `use_mps_device`: False
|
604 |
+
- `seed`: 42
|
605 |
+
- `data_seed`: None
|
606 |
+
- `jit_mode_eval`: False
|
607 |
+
- `use_ipex`: False
|
608 |
+
- `bf16`: True
|
609 |
+
- `fp16`: False
|
610 |
+
- `fp16_opt_level`: O1
|
611 |
+
- `half_precision_backend`: auto
|
612 |
+
- `bf16_full_eval`: False
|
613 |
+
- `fp16_full_eval`: False
|
614 |
+
- `tf32`: None
|
615 |
+
- `local_rank`: 0
|
616 |
+
- `ddp_backend`: None
|
617 |
+
- `tpu_num_cores`: None
|
618 |
+
- `tpu_metrics_debug`: False
|
619 |
+
- `debug`: []
|
620 |
+
- `dataloader_drop_last`: False
|
621 |
+
- `dataloader_num_workers`: 0
|
622 |
+
- `dataloader_prefetch_factor`: None
|
623 |
+
- `past_index`: -1
|
624 |
+
- `disable_tqdm`: False
|
625 |
+
- `remove_unused_columns`: True
|
626 |
+
- `label_names`: None
|
627 |
+
- `load_best_model_at_end`: True
|
628 |
+
- `ignore_data_skip`: False
|
629 |
+
- `fsdp`: []
|
630 |
+
- `fsdp_min_num_params`: 0
|
631 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
632 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
633 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
634 |
+
- `deepspeed`: None
|
635 |
+
- `label_smoothing_factor`: 0.0
|
636 |
+
- `optim`: adamw_torch_fused
|
637 |
+
- `optim_args`: None
|
638 |
+
- `adafactor`: False
|
639 |
+
- `group_by_length`: False
|
640 |
+
- `length_column_name`: length
|
641 |
+
- `ddp_find_unused_parameters`: None
|
642 |
+
- `ddp_bucket_cap_mb`: None
|
643 |
+
- `ddp_broadcast_buffers`: False
|
644 |
+
- `dataloader_pin_memory`: True
|
645 |
+
- `dataloader_persistent_workers`: False
|
646 |
+
- `skip_memory_metrics`: True
|
647 |
+
- `use_legacy_prediction_loop`: False
|
648 |
+
- `push_to_hub`: False
|
649 |
+
- `resume_from_checkpoint`: None
|
650 |
+
- `hub_model_id`: None
|
651 |
+
- `hub_strategy`: every_save
|
652 |
+
- `hub_private_repo`: None
|
653 |
+
- `hub_always_push`: False
|
654 |
+
- `gradient_checkpointing`: True
|
655 |
+
- `gradient_checkpointing_kwargs`: None
|
656 |
+
- `include_inputs_for_metrics`: False
|
657 |
+
- `include_for_metrics`: []
|
658 |
+
- `eval_do_concat_batches`: True
|
659 |
+
- `fp16_backend`: auto
|
660 |
+
- `push_to_hub_model_id`: None
|
661 |
+
- `push_to_hub_organization`: None
|
662 |
+
- `mp_parameters`:
|
663 |
+
- `auto_find_batch_size`: False
|
664 |
+
- `full_determinism`: False
|
665 |
+
- `torchdynamo`: None
|
666 |
+
- `ray_scope`: last
|
667 |
+
- `ddp_timeout`: 1800
|
668 |
+
- `torch_compile`: False
|
669 |
+
- `torch_compile_backend`: None
|
670 |
+
- `torch_compile_mode`: None
|
671 |
+
- `dispatch_batches`: None
|
672 |
+
- `split_batches`: None
|
673 |
+
- `include_tokens_per_second`: False
|
674 |
+
- `include_num_input_tokens_seen`: False
|
675 |
+
- `neftune_noise_alpha`: None
|
676 |
+
- `optim_target_modules`: None
|
677 |
+
- `batch_eval_metrics`: False
|
678 |
+
- `eval_on_start`: False
|
679 |
+
- `use_liger_kernel`: False
|
680 |
+
- `eval_use_gather_object`: False
|
681 |
+
- `average_tokens_across_devices`: False
|
682 |
+
- `prompts`: None
|
683 |
+
- `batch_sampler`: no_duplicates
|
684 |
+
- `multi_dataset_batch_sampler`: proportional
|
685 |
+
|
686 |
+
</details>
|
687 |
+
|
688 |
+
### Training Logs
|
689 |
+
| Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
|
690 |
+
|:-------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
|
691 |
+
| 1.0 | 40 | - | 0.2192 | 0.2209 | 0.2122 | 0.1938 | 0.1583 |
|
692 |
+
| 1.25 | 50 | 5.5269 | - | - | - | - | - |
|
693 |
+
| 2.0 | 80 | - | 0.2215 | 0.2231 | 0.2179 | 0.2097 | 0.1887 |
|
694 |
+
| 2.5 | 100 | 2.4018 | - | - | - | - | - |
|
695 |
+
| **3.0** | **120** | **-** | **0.229** | **0.2266** | **0.2171** | **0.2188** | **0.1926** |
|
696 |
+
| 3.75 | 150 | 1.4161 | - | - | - | - | - |
|
697 |
+
| 4.0 | 160 | - | 0.2286 | 0.2305 | 0.2253 | 0.2153 | 0.1994 |
|
698 |
+
|
699 |
+
* The bold row denotes the saved checkpoint.
|
700 |
+
|
701 |
+
### Framework Versions
|
702 |
+
- Python: 3.12.8
|
703 |
+
- Sentence Transformers: 3.3.1
|
704 |
+
- Transformers: 4.47.1
|
705 |
+
- PyTorch: 2.5.1+cu124
|
706 |
+
- Accelerate: 1.2.1
|
707 |
+
- Datasets: 2.19.2
|
708 |
+
- Tokenizers: 0.21.0
|
709 |
+
|
710 |
+
## Citation
|
711 |
+
|
712 |
+
### BibTeX
|
713 |
+
|
714 |
+
#### Sentence Transformers
|
715 |
+
```bibtex
|
716 |
+
@inproceedings{reimers-2019-sentence-bert,
|
717 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
718 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
719 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
720 |
+
month = "11",
|
721 |
+
year = "2019",
|
722 |
+
publisher = "Association for Computational Linguistics",
|
723 |
+
url = "https://arxiv.org/abs/1908.10084",
|
724 |
+
}
|
725 |
+
```
|
726 |
+
|
727 |
+
#### MatryoshkaLoss
|
728 |
+
```bibtex
|
729 |
+
@misc{kusupati2024matryoshka,
|
730 |
+
title={Matryoshka Representation Learning},
|
731 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
732 |
+
year={2024},
|
733 |
+
eprint={2205.13147},
|
734 |
+
archivePrefix={arXiv},
|
735 |
+
primaryClass={cs.LG}
|
736 |
+
}
|
737 |
+
```
|
738 |
+
|
739 |
+
#### MultipleNegativesRankingLoss
|
740 |
+
```bibtex
|
741 |
+
@misc{henderson2017efficient,
|
742 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
743 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
744 |
+
year={2017},
|
745 |
+
eprint={1705.00652},
|
746 |
+
archivePrefix={arXiv},
|
747 |
+
primaryClass={cs.CL}
|
748 |
+
}
|
749 |
+
```
|
750 |
+
|
751 |
+
<!--
|
752 |
+
## Glossary
|
753 |
+
|
754 |
+
*Clearly define terms in order to be accessible across audiences.*
|
755 |
+
-->
|
756 |
+
|
757 |
+
<!--
|
758 |
+
## Model Card Authors
|
759 |
+
|
760 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
761 |
+
-->
|
762 |
+
|
763 |
+
<!--
|
764 |
+
## Model Card Contact
|
765 |
+
|
766 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
767 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,26 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "mixedbread-ai/mxbai-embed-large-v1",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"gradient_checkpointing": false,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 1024,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 4096,
|
14 |
+
"layer_norm_eps": 1e-12,
|
15 |
+
"max_position_embeddings": 512,
|
16 |
+
"model_type": "bert",
|
17 |
+
"num_attention_heads": 16,
|
18 |
+
"num_hidden_layers": 24,
|
19 |
+
"pad_token_id": 0,
|
20 |
+
"position_embedding_type": "absolute",
|
21 |
+
"torch_dtype": "float32",
|
22 |
+
"transformers_version": "4.47.1",
|
23 |
+
"type_vocab_size": 2,
|
24 |
+
"use_cache": false,
|
25 |
+
"vocab_size": 30522
|
26 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,13 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.3.1",
|
4 |
+
"transformers": "4.47.1",
|
5 |
+
"pytorch": "2.5.1+cu124"
|
6 |
+
},
|
7 |
+
"prompts": {
|
8 |
+
"query": "Represent this sentence for searching relevant passages: ",
|
9 |
+
"passage": ""
|
10 |
+
},
|
11 |
+
"default_prompt_name": null,
|
12 |
+
"similarity_fn_name": "cosine"
|
13 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:f82181a55a709c3c8172a0268ded381db10ff0414725ed4f2d46845ddf35c5f2
|
3 |
+
size 1340612432
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"unk_token": {
|
31 |
+
"content": "[UNK]",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
}
|
37 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,58 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "[PAD]",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"100": {
|
12 |
+
"content": "[UNK]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"101": {
|
20 |
+
"content": "[CLS]",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"102": {
|
28 |
+
"content": "[SEP]",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"103": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"clean_up_tokenization_spaces": true,
|
45 |
+
"cls_token": "[CLS]",
|
46 |
+
"do_basic_tokenize": true,
|
47 |
+
"do_lower_case": true,
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "[MASK]",
|
50 |
+
"model_max_length": 512,
|
51 |
+
"never_split": null,
|
52 |
+
"pad_token": "[PAD]",
|
53 |
+
"sep_token": "[SEP]",
|
54 |
+
"strip_accents": null,
|
55 |
+
"tokenize_chinese_chars": true,
|
56 |
+
"tokenizer_class": "BertTokenizer",
|
57 |
+
"unk_token": "[UNK]"
|
58 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|