kenoc commited on
Commit
3947cba
·
verified ·
1 Parent(s): 776e2aa

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,767 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:5115
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: mixedbread-ai/mxbai-embed-large-v1
14
+ widget:
15
+ - source_sentence: gepackte Zahl in ein Integerfeld stellen, oder was geschieht, wenn
16
+ Sie eine gepackte Zahl zum Inhalt eines Datumsfeldes addieren, oder was geschieht,
17
+ wenn Sie eine gepackte Zahl in ein Cha- racter-Feld schreiben. Lassen Sie uns
18
+ hierzu eine Konvertierungsregel als Beispiel ansehen. Dezimalzahl in ganze Zahl
19
+ umwandeln Ist der Quelltyp ein Datenobjekt vom Typ p und der Zieltyp ein Daten-
20
+ objekt vom Typ i (eine ganze Zahl), rundet das System die Dezimalstel- len des
21
+ Quellfeldes und stellt den Inhalt rechtsbündig in das Zielfeld. I d Zi lf ld i
22
+ Lä h i h d i d li k i N ll
23
+ sentences:
24
+ - Wie kann eine selbst entwickelte Pflegetransaktion für Geschäftsregeln oder sonstige
25
+ Customizing-Inhalte helfen?
26
+ - Welche Technologien bietet der ABAP-Stack zur Schnittstellenentwicklung an?
27
+ - Welche Gründe sprechen gegen die Verwendung von Tabellen mit Kopfzeile in der
28
+ heutigen ABAP-Entwicklung?
29
+ - source_sentence: Systemkontext Das SAP BTP, ABAP Environment ist eine rein technische
30
+ Plattform (ohne installierte Anwendungssoftware) und in einen bestimmten Systemkon-
31
+ text eingebettet, innerhalb dessen Sie Anwendungen entwickeln und be- treiben
32
+ können (siehe Abbildung 12.1). ABAP Development Tools SAP Fiori Tools Git- Repository
33
+ abapGit heißt im unternehmenseigenen Netzwerk) installiert und baut ausgehend
34
+ von diesem lokalen Netzwerk eine sichere Verbindung zur SAP BTP auf. SAP-Fiori-Apps
35
+ Zur Bereitstellung Ihrer RAP-Anwendungen besitzt das ABAP Environment ein eigenes
36
+ SAP Fiori Launchpad, das als Eintrittspunkt für verschiedene SAP-Fiori-Apps dienen
37
+ kann und das Sie über einen Webbrowser erreichen (siehe Abschnitt 12.3, »SAP-Fiori-Apps
38
+ bereitstellen und Berechtigungen vergeben«). Ihre eigenen
39
+ sentences:
40
+ - Wie kann man die Vorschau in der Inbox des Benutzers programmieren, sodass sie
41
+ leistungsfähig und schnell ist und unerträgliche Wartezeiten bei der Arbeit mit
42
+ dem SAP Business Workplace verhindert?
43
+ - Was passiert beim Debuggen, wenn Checkpoints durch einen Doppelklick auf die Anweisung
44
+ und Bestätigen angelegt werden?
45
+ - Welche Tools werden im ABAP Environment für die Entwicklung von SAP Fiori-Anwendungen
46
+ sowie für das Deployment und die Bereitstellung dieser Anwendungen verwendet,
47
+ wobei auch die Verwendung der technischen Infrastrukturkomponenten berücksichtigt
48
+ werden muss?
49
+ - source_sentence: "sind das MVC-Modell und der Datenteil des (OData-) Services verpflichtend.\
50
+ \ Die Annotationen und UI-Anpassungen (dazu im Folgenden mehr) dienen der effizienteren\
51
+ \ Entwicklung und Erweiterbar- keit. UI Model View Controller Annotationen UI-Anpassungsmodus\
52
+ \ adaptieren/ erweitern nen, ist beschränkt. Abschnitt 3.2.4, »Anwendungen«, listet\
53
+ \ die Möglich- keiten auf, die zum Zeitpunkt der Drucklegung dieses Buches bestehen.\
54
+ \ In diesem Abschnitt beschreiben wir auch, wie Sie diese Änderungen als Anwendungsexperte\
55
+ \ an den betriebenen Oberflächen durchführen. Die SAP Web IDE auf der SAP Cloud\
56
+ \ Platform bietet eine alternative Möglich- keit, um solche Anpassungen als Entwickler\
57
+ \ zu erstellen. \x02 Annotationen Annotationen können im OData-Service über Erweiterungstechniken\
58
+ \ der jeweiligen"
59
+ sentences:
60
+ - Wie kann SAP Screen Personas bei der Implementierung eines ABAP-Skriptes, das
61
+ unter einer Sekunde laufen muss, unterstützen?
62
+ - Wie müssen die Verarbeitungszeitpunkte im PBO-Block, wenn eine interne Tabelle
63
+ mit doppelten Einträgen verwendet wird und die Datenbanktabelle komplett gelesen
64
+ werden soll?
65
+ - Wie kann ich den Pretty-Printer über (F1) nutzen?
66
+ - source_sentence: zu dem passt, was das Frame- work erwartet. Sie müssen gewissermaßen
67
+ sicherstellen, dass sie auch die gleiche Sprache sprechen, wenn der ersehnte Anruf
68
+ aus Hollywood kommt. Wichtige Frameworks im SAP-Standard Was macht einen guten
69
+ und erfahrenen ABAP-Programmierer aus? Darüber kann man viele interessante Diskussionen
70
+ führen. Eine der wesentlichen Komponenten dürfte die Kenntnis der im ABAP-Server
71
+ nutzbaren Frameworks sein. Die im Folgenden vorgestellten Frameworks sind in erster
72
+ Linie für Sie Web Dynpro ABAP Nachfolger der klassischen Dynpros Web Dynpro ABAP
73
+ ist eine der wichtigsten Neuerungen der letzten zehn Jahre in der SAP-Welt. Es
74
+ handelt sich dabei um eine Oberflä- chentechnologie, also
75
+ sentences:
76
+ - Was passiert, wenn man versucht, einen Datensatz in einer Datenbanktabelle zu
77
+ modifizieren, aber kein Satz mit demselben Primärschlüssel existiert, und wie
78
+ kann man den Returncode identifizieren?
79
+ - Wie kann man die Rollenzuordnung zu seinem Benutzer in der Benutzerpflege (SU01)
80
+ anzeigen lassen?
81
+ - Was sind die Vorteile von Web Dynpro ABAP?
82
+ - source_sentence: angegebenen anderen Objektins- tanz als Rücksprungziel definieren.
83
+ Selbstverständlich sind auch Auf- rufe statischer Methoden möglich. Exceptions
84
+ auswerten Returncode auswerten Nach Absetzen des Funktionsbausteinaufrufs erhalten
85
+ Sie sofort die ll b d bl f k d d lung. Für jede Servergruppe werden bestimmte
86
+ Schwellwerte gepflegt, die bestimmen, in welchem Umfang die Mitglieder der Gruppe
87
+ Ressour- cen für asynchrone RFCs zur Verfügung stellen. Setzt ein Programm einen
88
+ asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe ab (DESTINATION
89
+ IN GROUP), so prüft das System automatisch die Auslastung und ermittelt die Instanz,
90
+ die die Anforderung bearbeiten wird. Neben den explizit in der Transaktion RZ12
91
+ definierten Servergruppen gibt es
92
+ sentences:
93
+ - Was passiert, wenn ein Programm einen asynchronen RFC-Funktionsbausteinaufruf
94
+ gegen eine Servergruppe absetzt und die Systeminstanzen bereits auslastet?
95
+ - Welche Aufgaben kann man im Business Workplace des SAP-Systems erledigen?
96
+ - Wie kann man das Visitor Pattern in ABAP umsetzen, indem man definiert, wie ein
97
+ abstraktes Element von einem Besucher besucht werden soll?
98
+ pipeline_tag: sentence-similarity
99
+ library_name: sentence-transformers
100
+ metrics:
101
+ - cosine_accuracy@1
102
+ - cosine_accuracy@3
103
+ - cosine_accuracy@5
104
+ - cosine_accuracy@10
105
+ - cosine_precision@1
106
+ - cosine_precision@3
107
+ - cosine_precision@5
108
+ - cosine_precision@10
109
+ - cosine_recall@1
110
+ - cosine_recall@3
111
+ - cosine_recall@5
112
+ - cosine_recall@10
113
+ - cosine_ndcg@10
114
+ - cosine_mrr@10
115
+ - cosine_map@100
116
+ model-index:
117
+ - name: mixedbread-ai/mxbai-embed-large-v1
118
+ results:
119
+ - task:
120
+ type: information-retrieval
121
+ name: Information Retrieval
122
+ dataset:
123
+ name: dim 768
124
+ type: dim_768
125
+ metrics:
126
+ - type: cosine_accuracy@1
127
+ value: 0.08963093145869948
128
+ name: Cosine Accuracy@1
129
+ - type: cosine_accuracy@3
130
+ value: 0.20210896309314588
131
+ name: Cosine Accuracy@3
132
+ - type: cosine_accuracy@5
133
+ value: 0.2601054481546573
134
+ name: Cosine Accuracy@5
135
+ - type: cosine_accuracy@10
136
+ value: 0.4182776801405975
137
+ name: Cosine Accuracy@10
138
+ - type: cosine_precision@1
139
+ value: 0.08963093145869948
140
+ name: Cosine Precision@1
141
+ - type: cosine_precision@3
142
+ value: 0.06736965436438194
143
+ name: Cosine Precision@3
144
+ - type: cosine_precision@5
145
+ value: 0.05202108963093146
146
+ name: Cosine Precision@5
147
+ - type: cosine_precision@10
148
+ value: 0.041827768014059755
149
+ name: Cosine Precision@10
150
+ - type: cosine_recall@1
151
+ value: 0.08963093145869948
152
+ name: Cosine Recall@1
153
+ - type: cosine_recall@3
154
+ value: 0.20210896309314588
155
+ name: Cosine Recall@3
156
+ - type: cosine_recall@5
157
+ value: 0.2601054481546573
158
+ name: Cosine Recall@5
159
+ - type: cosine_recall@10
160
+ value: 0.4182776801405975
161
+ name: Cosine Recall@10
162
+ - type: cosine_ndcg@10
163
+ value: 0.2286145159685347
164
+ name: Cosine Ndcg@10
165
+ - type: cosine_mrr@10
166
+ value: 0.17133442129048454
167
+ name: Cosine Mrr@10
168
+ - type: cosine_map@100
169
+ value: 0.18651234259488886
170
+ name: Cosine Map@100
171
+ - task:
172
+ type: information-retrieval
173
+ name: Information Retrieval
174
+ dataset:
175
+ name: dim 512
176
+ type: dim_512
177
+ metrics:
178
+ - type: cosine_accuracy@1
179
+ value: 0.09490333919156414
180
+ name: Cosine Accuracy@1
181
+ - type: cosine_accuracy@3
182
+ value: 0.20035149384885764
183
+ name: Cosine Accuracy@3
184
+ - type: cosine_accuracy@5
185
+ value: 0.2618629173989455
186
+ name: Cosine Accuracy@5
187
+ - type: cosine_accuracy@10
188
+ value: 0.4147627416520211
189
+ name: Cosine Accuracy@10
190
+ - type: cosine_precision@1
191
+ value: 0.09490333919156414
192
+ name: Cosine Precision@1
193
+ - type: cosine_precision@3
194
+ value: 0.06678383128295255
195
+ name: Cosine Precision@3
196
+ - type: cosine_precision@5
197
+ value: 0.0523725834797891
198
+ name: Cosine Precision@5
199
+ - type: cosine_precision@10
200
+ value: 0.0414762741652021
201
+ name: Cosine Precision@10
202
+ - type: cosine_recall@1
203
+ value: 0.09490333919156414
204
+ name: Cosine Recall@1
205
+ - type: cosine_recall@3
206
+ value: 0.20035149384885764
207
+ name: Cosine Recall@3
208
+ - type: cosine_recall@5
209
+ value: 0.2618629173989455
210
+ name: Cosine Recall@5
211
+ - type: cosine_recall@10
212
+ value: 0.4147627416520211
213
+ name: Cosine Recall@10
214
+ - type: cosine_ndcg@10
215
+ value: 0.23048397423019637
216
+ name: Cosine Ndcg@10
217
+ - type: cosine_mrr@10
218
+ value: 0.1748068178648144
219
+ name: Cosine Mrr@10
220
+ - type: cosine_map@100
221
+ value: 0.19003346049167824
222
+ name: Cosine Map@100
223
+ - task:
224
+ type: information-retrieval
225
+ name: Information Retrieval
226
+ dataset:
227
+ name: dim 256
228
+ type: dim_256
229
+ metrics:
230
+ - type: cosine_accuracy@1
231
+ value: 0.09314586994727592
232
+ name: Cosine Accuracy@1
233
+ - type: cosine_accuracy@3
234
+ value: 0.20035149384885764
235
+ name: Cosine Accuracy@3
236
+ - type: cosine_accuracy@5
237
+ value: 0.2548330404217926
238
+ name: Cosine Accuracy@5
239
+ - type: cosine_accuracy@10
240
+ value: 0.39718804920913886
241
+ name: Cosine Accuracy@10
242
+ - type: cosine_precision@1
243
+ value: 0.09314586994727592
244
+ name: Cosine Precision@1
245
+ - type: cosine_precision@3
246
+ value: 0.06678383128295255
247
+ name: Cosine Precision@3
248
+ - type: cosine_precision@5
249
+ value: 0.050966608084358524
250
+ name: Cosine Precision@5
251
+ - type: cosine_precision@10
252
+ value: 0.03971880492091388
253
+ name: Cosine Precision@10
254
+ - type: cosine_recall@1
255
+ value: 0.09314586994727592
256
+ name: Cosine Recall@1
257
+ - type: cosine_recall@3
258
+ value: 0.20035149384885764
259
+ name: Cosine Recall@3
260
+ - type: cosine_recall@5
261
+ value: 0.2548330404217926
262
+ name: Cosine Recall@5
263
+ - type: cosine_recall@10
264
+ value: 0.39718804920913886
265
+ name: Cosine Recall@10
266
+ - type: cosine_ndcg@10
267
+ value: 0.22531472414554513
268
+ name: Cosine Ndcg@10
269
+ - type: cosine_mrr@10
270
+ value: 0.1728798783719698
271
+ name: Cosine Mrr@10
272
+ - type: cosine_map@100
273
+ value: 0.18866030878645856
274
+ name: Cosine Map@100
275
+ - task:
276
+ type: information-retrieval
277
+ name: Information Retrieval
278
+ dataset:
279
+ name: dim 128
280
+ type: dim_128
281
+ metrics:
282
+ - type: cosine_accuracy@1
283
+ value: 0.0773286467486819
284
+ name: Cosine Accuracy@1
285
+ - type: cosine_accuracy@3
286
+ value: 0.18453427065026362
287
+ name: Cosine Accuracy@3
288
+ - type: cosine_accuracy@5
289
+ value: 0.26537785588752194
290
+ name: Cosine Accuracy@5
291
+ - type: cosine_accuracy@10
292
+ value: 0.39718804920913886
293
+ name: Cosine Accuracy@10
294
+ - type: cosine_precision@1
295
+ value: 0.0773286467486819
296
+ name: Cosine Precision@1
297
+ - type: cosine_precision@3
298
+ value: 0.061511423550087874
299
+ name: Cosine Precision@3
300
+ - type: cosine_precision@5
301
+ value: 0.053075571177504395
302
+ name: Cosine Precision@5
303
+ - type: cosine_precision@10
304
+ value: 0.03971880492091388
305
+ name: Cosine Precision@10
306
+ - type: cosine_recall@1
307
+ value: 0.0773286467486819
308
+ name: Cosine Recall@1
309
+ - type: cosine_recall@3
310
+ value: 0.18453427065026362
311
+ name: Cosine Recall@3
312
+ - type: cosine_recall@5
313
+ value: 0.26537785588752194
314
+ name: Cosine Recall@5
315
+ - type: cosine_recall@10
316
+ value: 0.39718804920913886
317
+ name: Cosine Recall@10
318
+ - type: cosine_ndcg@10
319
+ value: 0.21527271607083312
320
+ name: Cosine Ndcg@10
321
+ - type: cosine_mrr@10
322
+ value: 0.1597720869249868
323
+ name: Cosine Mrr@10
324
+ - type: cosine_map@100
325
+ value: 0.17541010404455568
326
+ name: Cosine Map@100
327
+ - task:
328
+ type: information-retrieval
329
+ name: Information Retrieval
330
+ dataset:
331
+ name: dim 64
332
+ type: dim_64
333
+ metrics:
334
+ - type: cosine_accuracy@1
335
+ value: 0.06678383128295255
336
+ name: Cosine Accuracy@1
337
+ - type: cosine_accuracy@3
338
+ value: 0.1687170474516696
339
+ name: Cosine Accuracy@3
340
+ - type: cosine_accuracy@5
341
+ value: 0.2530755711775044
342
+ name: Cosine Accuracy@5
343
+ - type: cosine_accuracy@10
344
+ value: 0.38137082601054484
345
+ name: Cosine Accuracy@10
346
+ - type: cosine_precision@1
347
+ value: 0.06678383128295255
348
+ name: Cosine Precision@1
349
+ - type: cosine_precision@3
350
+ value: 0.056239015817223195
351
+ name: Cosine Precision@3
352
+ - type: cosine_precision@5
353
+ value: 0.050615114235500885
354
+ name: Cosine Precision@5
355
+ - type: cosine_precision@10
356
+ value: 0.03813708260105448
357
+ name: Cosine Precision@10
358
+ - type: cosine_recall@1
359
+ value: 0.06678383128295255
360
+ name: Cosine Recall@1
361
+ - type: cosine_recall@3
362
+ value: 0.1687170474516696
363
+ name: Cosine Recall@3
364
+ - type: cosine_recall@5
365
+ value: 0.2530755711775044
366
+ name: Cosine Recall@5
367
+ - type: cosine_recall@10
368
+ value: 0.38137082601054484
369
+ name: Cosine Recall@10
370
+ - type: cosine_ndcg@10
371
+ value: 0.1993984243853605
372
+ name: Cosine Ndcg@10
373
+ - type: cosine_mrr@10
374
+ value: 0.14423661673222307
375
+ name: Cosine Mrr@10
376
+ - type: cosine_map@100
377
+ value: 0.1585449114563028
378
+ name: Cosine Map@100
379
+ ---
380
+
381
+ # mixedbread-ai/mxbai-embed-large-v1
382
+
383
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [mixedbread-ai/mxbai-embed-large-v1](https://huggingface.co/mixedbread-ai/mxbai-embed-large-v1) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
384
+
385
+ ## Model Details
386
+
387
+ ### Model Description
388
+ - **Model Type:** Sentence Transformer
389
+ - **Base model:** [mixedbread-ai/mxbai-embed-large-v1](https://huggingface.co/mixedbread-ai/mxbai-embed-large-v1) <!-- at revision e7857440379da569f68f19e8403b69cd7be26e50 -->
390
+ - **Maximum Sequence Length:** 512 tokens
391
+ - **Output Dimensionality:** 1024 dimensions
392
+ - **Similarity Function:** Cosine Similarity
393
+ - **Training Dataset:**
394
+ - json
395
+ - **Language:** en
396
+ - **License:** apache-2.0
397
+
398
+ ### Model Sources
399
+
400
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
401
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
402
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
403
+
404
+ ### Full Model Architecture
405
+
406
+ ```
407
+ SentenceTransformer(
408
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
409
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
410
+ )
411
+ ```
412
+
413
+ ## Usage
414
+
415
+ ### Direct Usage (Sentence Transformers)
416
+
417
+ First install the Sentence Transformers library:
418
+
419
+ ```bash
420
+ pip install -U sentence-transformers
421
+ ```
422
+
423
+ Then you can load this model and run inference.
424
+ ```python
425
+ from sentence_transformers import SentenceTransformer
426
+
427
+ # Download from the 🤗 Hub
428
+ model = SentenceTransformer("kenoc/mxbai-abat-matryoshka")
429
+ # Run inference
430
+ sentences = [
431
+ 'angegebenen anderen Objektins- tanz als Rücksprungziel definieren. Selbstverständlich sind auch Auf- rufe statischer Methoden möglich. Exceptions auswerten Returncode auswerten Nach Absetzen des Funktionsbausteinaufrufs erhalten Sie sofort die ll b d bl f k d d lung. Für jede Servergruppe werden bestimmte Schwellwerte gepflegt, die bestimmen, in welchem Umfang die Mitglieder der Gruppe Ressour- cen für asynchrone RFCs zur Verfügung stellen. Setzt ein Programm einen asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe ab (DESTINATION IN GROUP), so prüft das System automatisch die Auslastung und ermittelt die Instanz, die die Anforderung bearbeiten wird. Neben den explizit in der Transaktion RZ12 definierten Servergruppen gibt es',
432
+ 'Was passiert, wenn ein Programm einen asynchronen RFC-Funktionsbausteinaufruf gegen eine Servergruppe absetzt und die Systeminstanzen bereits auslastet?',
433
+ 'Welche Aufgaben kann man im Business Workplace des SAP-Systems erledigen?',
434
+ ]
435
+ embeddings = model.encode(sentences)
436
+ print(embeddings.shape)
437
+ # [3, 1024]
438
+
439
+ # Get the similarity scores for the embeddings
440
+ similarities = model.similarity(embeddings, embeddings)
441
+ print(similarities.shape)
442
+ # [3, 3]
443
+ ```
444
+
445
+ <!--
446
+ ### Direct Usage (Transformers)
447
+
448
+ <details><summary>Click to see the direct usage in Transformers</summary>
449
+
450
+ </details>
451
+ -->
452
+
453
+ <!--
454
+ ### Downstream Usage (Sentence Transformers)
455
+
456
+ You can finetune this model on your own dataset.
457
+
458
+ <details><summary>Click to expand</summary>
459
+
460
+ </details>
461
+ -->
462
+
463
+ <!--
464
+ ### Out-of-Scope Use
465
+
466
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
467
+ -->
468
+
469
+ ## Evaluation
470
+
471
+ ### Metrics
472
+
473
+ #### Information Retrieval
474
+
475
+ * Datasets: `dim_768`, `dim_512`, `dim_256`, `dim_128` and `dim_64`
476
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
477
+
478
+ | Metric | dim_768 | dim_512 | dim_256 | dim_128 | dim_64 |
479
+ |:--------------------|:-----------|:-----------|:-----------|:-----------|:-----------|
480
+ | cosine_accuracy@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
481
+ | cosine_accuracy@3 | 0.2021 | 0.2004 | 0.2004 | 0.1845 | 0.1687 |
482
+ | cosine_accuracy@5 | 0.2601 | 0.2619 | 0.2548 | 0.2654 | 0.2531 |
483
+ | cosine_accuracy@10 | 0.4183 | 0.4148 | 0.3972 | 0.3972 | 0.3814 |
484
+ | cosine_precision@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
485
+ | cosine_precision@3 | 0.0674 | 0.0668 | 0.0668 | 0.0615 | 0.0562 |
486
+ | cosine_precision@5 | 0.052 | 0.0524 | 0.051 | 0.0531 | 0.0506 |
487
+ | cosine_precision@10 | 0.0418 | 0.0415 | 0.0397 | 0.0397 | 0.0381 |
488
+ | cosine_recall@1 | 0.0896 | 0.0949 | 0.0931 | 0.0773 | 0.0668 |
489
+ | cosine_recall@3 | 0.2021 | 0.2004 | 0.2004 | 0.1845 | 0.1687 |
490
+ | cosine_recall@5 | 0.2601 | 0.2619 | 0.2548 | 0.2654 | 0.2531 |
491
+ | cosine_recall@10 | 0.4183 | 0.4148 | 0.3972 | 0.3972 | 0.3814 |
492
+ | **cosine_ndcg@10** | **0.2286** | **0.2305** | **0.2253** | **0.2153** | **0.1994** |
493
+ | cosine_mrr@10 | 0.1713 | 0.1748 | 0.1729 | 0.1598 | 0.1442 |
494
+ | cosine_map@100 | 0.1865 | 0.19 | 0.1887 | 0.1754 | 0.1585 |
495
+
496
+ <!--
497
+ ## Bias, Risks and Limitations
498
+
499
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
500
+ -->
501
+
502
+ <!--
503
+ ### Recommendations
504
+
505
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
506
+ -->
507
+
508
+ ## Training Details
509
+
510
+ ### Training Dataset
511
+
512
+ #### json
513
+
514
+ * Dataset: json
515
+ * Size: 5,115 training samples
516
+ * Columns: <code>positive</code> and <code>anchor</code>
517
+ * Approximate statistics based on the first 1000 samples:
518
+ | | positive | anchor |
519
+ |:--------|:-------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
520
+ | type | string | string |
521
+ | details | <ul><li>min: 11 tokens</li><li>mean: 252.94 tokens</li><li>max: 479 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 45.33 tokens</li><li>max: 129 tokens</li></ul> |
522
+ * Samples:
523
+ | positive | anchor |
524
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
525
+ | <code>Standardtabelle ITAB01 wird deklariert; die initiale Spei- cherplatzbelegung wird dem System überlassen. Die interne Tabelle hat zwei Felder, die hinsichtlich ihrer Deklarationen auf das Dictionary verweisen. Zeile 23 bis 26 Die interne Tabelle ITAB02 wird deklariert. Sie soll die Struktur der Zei- g Zeile der Datenbanktabelle. Zeile 52 bis 55 Die Datenbanktabelle wird satzweise in ihre Workarea gelesen. Von dort aus werden namensgleiche Felder in die Kopfzeile der internen Tabelle übertragen. Nach dem Übertragen wird der Inhalt der Kopf- zeile als neue Zeile an den Tabellenrumpf angehängt. Der Inhalt der Kopfzeile bleibt dabei erhalten und wird in diesem Fall durch</code> | <code>Was passiert, wenn eine interne Tabelle ohne Kopfzeile deklariert ist?</code> |
526
+ | <code>lässt sich leicht ablesen, dass ein Konstruktor mit mehreren optionalen Parametern und einer Dokumenta- tion nötig wäre, um diese Methoden zu ersetzen. Umgebungsunabhängige Wiederholbarkeit Mit dem eigenständigen Aufbau der testrelevanten Daten stellt die Testklasse sicher, dass ihre Testmethoden in jeder Umgebung wiederholbar sind (Repeatable- Prinzip). Tests sind für das Refactoring notwendig, um Regression zu vermei- den. Allerdings müssen Tests auch häufig angepasst werden, wenn sich das Produktdesign durch Refactoring ändert. Wie kann der Auf- wand dafür minimiert werden? Welche Rolle spielen dabei Abhängig- keiten des Testcodes vom Produktcode? Abhängigkeiten können sowohl bei der Erzeugung als auch bei der Verwendung eines</code> | <code>Was ist das Ziel von Refactoring?</code> |
527
+ | <code>es ermöglicht, Aufgaben innerhalb eines Netzwerks auf Clients und Server zu verteilen. Der Server bietet Dienste an, die die Clients (Anwender-PCs) nutzen. SAP R/3 und später SAP ERP liegt ein drei­ stufiges Konzept zugrunde:  Datenbank, Server und Client Compliance Verfahren zur Einhaltung von Gesetzen und Richtlinien, zum Beispiel des Sarbanes-Oxley Acts oder von Arbeits­ schutzgesetzen. Mitarbeiter und die externen Dienstleister, die über das »Arbeitszeitblatt« unter ande­ rem eine Zeiterfassung erlaubt. Customer Relationship Management  SAP Customer Relationship Management Customer Service Kundenservice. Die Komponente CS in SAP ERP unterstützt die Abläufe in der Serviceabwicklung, zum Bei­ spiel die Bearbeitung von</code> | <code>Welche Funktionen bietet SAP CRM?</code> |
528
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
529
+ ```json
530
+ {
531
+ "loss": "MultipleNegativesRankingLoss",
532
+ "matryoshka_dims": [
533
+ 768,
534
+ 512,
535
+ 256,
536
+ 128,
537
+ 64
538
+ ],
539
+ "matryoshka_weights": [
540
+ 1,
541
+ 1,
542
+ 1,
543
+ 1,
544
+ 1
545
+ ],
546
+ "n_dims_per_step": -1
547
+ }
548
+ ```
549
+
550
+ ### Training Hyperparameters
551
+ #### Non-Default Hyperparameters
552
+
553
+ - `eval_strategy`: epoch
554
+ - `per_device_train_batch_size`: 16
555
+ - `per_device_eval_batch_size`: 16
556
+ - `gradient_accumulation_steps`: 8
557
+ - `learning_rate`: 2e-05
558
+ - `num_train_epochs`: 4
559
+ - `lr_scheduler_type`: cosine
560
+ - `warmup_ratio`: 0.1
561
+ - `bf16`: True
562
+ - `load_best_model_at_end`: True
563
+ - `optim`: adamw_torch_fused
564
+ - `gradient_checkpointing`: True
565
+ - `batch_sampler`: no_duplicates
566
+
567
+ #### All Hyperparameters
568
+ <details><summary>Click to expand</summary>
569
+
570
+ - `overwrite_output_dir`: False
571
+ - `do_predict`: False
572
+ - `eval_strategy`: epoch
573
+ - `prediction_loss_only`: True
574
+ - `per_device_train_batch_size`: 16
575
+ - `per_device_eval_batch_size`: 16
576
+ - `per_gpu_train_batch_size`: None
577
+ - `per_gpu_eval_batch_size`: None
578
+ - `gradient_accumulation_steps`: 8
579
+ - `eval_accumulation_steps`: None
580
+ - `torch_empty_cache_steps`: None
581
+ - `learning_rate`: 2e-05
582
+ - `weight_decay`: 0.0
583
+ - `adam_beta1`: 0.9
584
+ - `adam_beta2`: 0.999
585
+ - `adam_epsilon`: 1e-08
586
+ - `max_grad_norm`: 1.0
587
+ - `num_train_epochs`: 4
588
+ - `max_steps`: -1
589
+ - `lr_scheduler_type`: cosine
590
+ - `lr_scheduler_kwargs`: {}
591
+ - `warmup_ratio`: 0.1
592
+ - `warmup_steps`: 0
593
+ - `log_level`: passive
594
+ - `log_level_replica`: warning
595
+ - `log_on_each_node`: True
596
+ - `logging_nan_inf_filter`: True
597
+ - `save_safetensors`: True
598
+ - `save_on_each_node`: False
599
+ - `save_only_model`: False
600
+ - `restore_callback_states_from_checkpoint`: False
601
+ - `no_cuda`: False
602
+ - `use_cpu`: False
603
+ - `use_mps_device`: False
604
+ - `seed`: 42
605
+ - `data_seed`: None
606
+ - `jit_mode_eval`: False
607
+ - `use_ipex`: False
608
+ - `bf16`: True
609
+ - `fp16`: False
610
+ - `fp16_opt_level`: O1
611
+ - `half_precision_backend`: auto
612
+ - `bf16_full_eval`: False
613
+ - `fp16_full_eval`: False
614
+ - `tf32`: None
615
+ - `local_rank`: 0
616
+ - `ddp_backend`: None
617
+ - `tpu_num_cores`: None
618
+ - `tpu_metrics_debug`: False
619
+ - `debug`: []
620
+ - `dataloader_drop_last`: False
621
+ - `dataloader_num_workers`: 0
622
+ - `dataloader_prefetch_factor`: None
623
+ - `past_index`: -1
624
+ - `disable_tqdm`: False
625
+ - `remove_unused_columns`: True
626
+ - `label_names`: None
627
+ - `load_best_model_at_end`: True
628
+ - `ignore_data_skip`: False
629
+ - `fsdp`: []
630
+ - `fsdp_min_num_params`: 0
631
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
632
+ - `fsdp_transformer_layer_cls_to_wrap`: None
633
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
634
+ - `deepspeed`: None
635
+ - `label_smoothing_factor`: 0.0
636
+ - `optim`: adamw_torch_fused
637
+ - `optim_args`: None
638
+ - `adafactor`: False
639
+ - `group_by_length`: False
640
+ - `length_column_name`: length
641
+ - `ddp_find_unused_parameters`: None
642
+ - `ddp_bucket_cap_mb`: None
643
+ - `ddp_broadcast_buffers`: False
644
+ - `dataloader_pin_memory`: True
645
+ - `dataloader_persistent_workers`: False
646
+ - `skip_memory_metrics`: True
647
+ - `use_legacy_prediction_loop`: False
648
+ - `push_to_hub`: False
649
+ - `resume_from_checkpoint`: None
650
+ - `hub_model_id`: None
651
+ - `hub_strategy`: every_save
652
+ - `hub_private_repo`: None
653
+ - `hub_always_push`: False
654
+ - `gradient_checkpointing`: True
655
+ - `gradient_checkpointing_kwargs`: None
656
+ - `include_inputs_for_metrics`: False
657
+ - `include_for_metrics`: []
658
+ - `eval_do_concat_batches`: True
659
+ - `fp16_backend`: auto
660
+ - `push_to_hub_model_id`: None
661
+ - `push_to_hub_organization`: None
662
+ - `mp_parameters`:
663
+ - `auto_find_batch_size`: False
664
+ - `full_determinism`: False
665
+ - `torchdynamo`: None
666
+ - `ray_scope`: last
667
+ - `ddp_timeout`: 1800
668
+ - `torch_compile`: False
669
+ - `torch_compile_backend`: None
670
+ - `torch_compile_mode`: None
671
+ - `dispatch_batches`: None
672
+ - `split_batches`: None
673
+ - `include_tokens_per_second`: False
674
+ - `include_num_input_tokens_seen`: False
675
+ - `neftune_noise_alpha`: None
676
+ - `optim_target_modules`: None
677
+ - `batch_eval_metrics`: False
678
+ - `eval_on_start`: False
679
+ - `use_liger_kernel`: False
680
+ - `eval_use_gather_object`: False
681
+ - `average_tokens_across_devices`: False
682
+ - `prompts`: None
683
+ - `batch_sampler`: no_duplicates
684
+ - `multi_dataset_batch_sampler`: proportional
685
+
686
+ </details>
687
+
688
+ ### Training Logs
689
+ | Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
690
+ |:-------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
691
+ | 1.0 | 40 | - | 0.2192 | 0.2209 | 0.2122 | 0.1938 | 0.1583 |
692
+ | 1.25 | 50 | 5.5269 | - | - | - | - | - |
693
+ | 2.0 | 80 | - | 0.2215 | 0.2231 | 0.2179 | 0.2097 | 0.1887 |
694
+ | 2.5 | 100 | 2.4018 | - | - | - | - | - |
695
+ | **3.0** | **120** | **-** | **0.229** | **0.2266** | **0.2171** | **0.2188** | **0.1926** |
696
+ | 3.75 | 150 | 1.4161 | - | - | - | - | - |
697
+ | 4.0 | 160 | - | 0.2286 | 0.2305 | 0.2253 | 0.2153 | 0.1994 |
698
+
699
+ * The bold row denotes the saved checkpoint.
700
+
701
+ ### Framework Versions
702
+ - Python: 3.12.8
703
+ - Sentence Transformers: 3.3.1
704
+ - Transformers: 4.47.1
705
+ - PyTorch: 2.5.1+cu124
706
+ - Accelerate: 1.2.1
707
+ - Datasets: 2.19.2
708
+ - Tokenizers: 0.21.0
709
+
710
+ ## Citation
711
+
712
+ ### BibTeX
713
+
714
+ #### Sentence Transformers
715
+ ```bibtex
716
+ @inproceedings{reimers-2019-sentence-bert,
717
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
718
+ author = "Reimers, Nils and Gurevych, Iryna",
719
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
720
+ month = "11",
721
+ year = "2019",
722
+ publisher = "Association for Computational Linguistics",
723
+ url = "https://arxiv.org/abs/1908.10084",
724
+ }
725
+ ```
726
+
727
+ #### MatryoshkaLoss
728
+ ```bibtex
729
+ @misc{kusupati2024matryoshka,
730
+ title={Matryoshka Representation Learning},
731
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
732
+ year={2024},
733
+ eprint={2205.13147},
734
+ archivePrefix={arXiv},
735
+ primaryClass={cs.LG}
736
+ }
737
+ ```
738
+
739
+ #### MultipleNegativesRankingLoss
740
+ ```bibtex
741
+ @misc{henderson2017efficient,
742
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
743
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
744
+ year={2017},
745
+ eprint={1705.00652},
746
+ archivePrefix={arXiv},
747
+ primaryClass={cs.CL}
748
+ }
749
+ ```
750
+
751
+ <!--
752
+ ## Glossary
753
+
754
+ *Clearly define terms in order to be accessible across audiences.*
755
+ -->
756
+
757
+ <!--
758
+ ## Model Card Authors
759
+
760
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
761
+ -->
762
+
763
+ <!--
764
+ ## Model Card Contact
765
+
766
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
767
+ -->
config.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "mixedbread-ai/mxbai-embed-large-v1",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "gradient_checkpointing": false,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 1024,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 4096,
14
+ "layer_norm_eps": 1e-12,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "bert",
17
+ "num_attention_heads": 16,
18
+ "num_hidden_layers": 24,
19
+ "pad_token_id": 0,
20
+ "position_embedding_type": "absolute",
21
+ "torch_dtype": "float32",
22
+ "transformers_version": "4.47.1",
23
+ "type_vocab_size": 2,
24
+ "use_cache": false,
25
+ "vocab_size": 30522
26
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,13 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.47.1",
5
+ "pytorch": "2.5.1+cu124"
6
+ },
7
+ "prompts": {
8
+ "query": "Represent this sentence for searching relevant passages: ",
9
+ "passage": ""
10
+ },
11
+ "default_prompt_name": null,
12
+ "similarity_fn_name": "cosine"
13
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f82181a55a709c3c8172a0268ded381db10ff0414725ed4f2d46845ddf35c5f2
3
+ size 1340612432
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,58 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "100": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "101": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "102": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "103": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": true,
48
+ "extra_special_tokens": {},
49
+ "mask_token": "[MASK]",
50
+ "model_max_length": 512,
51
+ "never_split": null,
52
+ "pad_token": "[PAD]",
53
+ "sep_token": "[SEP]",
54
+ "strip_accents": null,
55
+ "tokenize_chinese_chars": true,
56
+ "tokenizer_class": "BertTokenizer",
57
+ "unk_token": "[UNK]"
58
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff