nickprock commited on
Commit
5136e4d
·
verified ·
1 Parent(s): a200533

Add new SentenceTransformer model

Browse files
0_StaticEmbedding/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b27e09832dd17581cab771c18a16b2e4ae04feba71ddb87b5ab6f74bf6d4ae13
3
+ size 127393888
0_StaticEmbedding/tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
README.md ADDED
@@ -0,0 +1,550 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ tags:
4
+ - sentence-transformers
5
+ - sentence-similarity
6
+ - feature-extraction
7
+ - generated_from_trainer
8
+ - dataset_size:39780811
9
+ - loss:MatryoshkaLoss
10
+ - loss:MultipleNegativesRankingLoss
11
+ widget:
12
+ - source_sentence: è la città Riverdale basata sui fumetti di Archie
13
+ sentences:
14
+ - Newark Liberty International Airport EWR è l'aeroporto più trafficato dell'area
15
+ metropolitana di New York-New Jersey in termini di voli. Nel 2012, l'aeroporto
16
+ di Newark Liberty ha servito oltre 34 milioni di passeggeri. Inaugurato originariamente
17
+ nel 1928, è il più antico aeroporto d'America e in seguito è diventato il primo
18
+ a costruire un terminal di compagnie aeree commerciali.
19
+ - Personaggi Riverdale sulla CW. Ambientato nel presente, Riverdale è una versione
20
+ sovversiva di Archie, Betty, Veronica e dei loro amici, esplorando il surrealismo
21
+ della vita di provincia - l'oscurità e le stranezze che ribollono sotto Riverdale...
22
+ La salutare facciata di Ãâ„.
23
+ - A parte un fumetto di Conan precedente e non ufficiale pubblicato in Messico,
24
+ i due principali editori di fumetti di Conan sono stati Marvel Comics e Dark Horse
25
+ Comics. La Marvel Comics ha lanciato Conan il Barbaro (1970â€â€ââ€1993) e il
26
+ classico Savage Sword of Conan (1974â€ââ€1995). Dark Horse ha lanciato la
27
+ sua serie Conan nel 2003.
28
+ - source_sentence: quando si candida per la rielezione?
29
+ sentences:
30
+ - 'La prima visita ha lo scopo di confermare la tua gravidanza e determinare il
31
+ tuo stato di salute generale. Inoltre, la visita fornirà al tuo medico indizio
32
+ su eventuali fattori di rischio che potrebbero influenzare la tua gravidanza.
33
+ In genere sarà più lungo delle visite future. Lo scopo della visita prenatale
34
+ è: 1 Determinare la data di scadenza. 2 Scopri la tua storia di salute. 3 Esplora
35
+ la storia medica dei membri della famiglia.'
36
+ - '"[Donald Trump è] una persona davvero brillante e di talento, senza alcun dubbio",
37
+ ha detto ai giornalisti [Vladimir] Putin, secondo una traduzione di Interfax.
38
+ Il leader del GOP è stato schietto sui suoi piani per scongelare le relazioni
39
+ degli Stati Uniti con la Russia se dovesse essere eletto presidente.'
40
+ - Putin dice che non può escludere la possibilità di essere rieletto nel 2018. VALDAI,
41
+ Russia. 19 settembre (Interfax) - Il presidente russo Vladimir Putin ha detto
42
+ giovedì che non poteva escludere di candidarsi per la rielezione a presidente
43
+ nel 2018. Putin ha rilasciato la dichiarazione durante uno scambio con l'ex primo
44
+ ministro francese Francois Fillon in una riunione della discussione Valdai club.
45
+ - source_sentence: costo medio dei libri di testo per semestre
46
+ sentences:
47
+ - Rinite allergica stagionale. Dymista spray nasale è indicato per il sollievo dei
48
+ sintomi della rinite allergica stagionale nei pazienti di età pari o superiore
49
+ a 6 anni che richiedono un trattamento sia con azelastina cloridrato che fluticasone
50
+ propionato per il sollievo sintomatico. La dose raccomandata di Dymista è di 1
51
+ spruzzo in ciascuna narice due volte al giorno.
52
+ - 'Ad esempio, la FAFSA 2017-2018 comprende i seguenti semestri: 1 Sessione estiva
53
+ 2017. 2 Semestre autunnale 2017. 3 Semestre invernale 2018. 4 Semestre primaverile
54
+ 2018.'
55
+ - Se hai intenzione di frequentare la scuola durante l'estate, moltiplica il costo
56
+ medio per semestre per tre invece di due. Ad esempio, se in un semestre tipico,
57
+ hai seguito 3 corsi principali con costi di libri di testo a $ 100, $ 150 e $
58
+ 125, il tuo costo medio per i libri di testo sarebbe di $ 125 a semestre. Ora
59
+ per tenere conto dell'autunno, della primavera e dell'estate, moltiplica $ 125
60
+ per 3 e hai $ 375. Questo è il costo medio dei libri universitari all'anno.
61
+ - source_sentence: quanto costa tulane un anno?
62
+ sentences:
63
+ - Secondo i nostri registri, Joel McCrea potrebbe essere single. Joel McCrea era
64
+ precedentemente sposato con Frances Dee (1933 - 1990). Joel McCrea aveva una relazione
65
+ con Katharine Hepburn (1932), Constance Bennett (1929 - 1930), Marion Davies e
66
+ Jean Harlow. Maggiori informazioni su Joel McCrea.
67
+ - Sul suo sito web, Tulane riconosce che è costoso - tasse scolastiche e altre tasse
68
+ sono quasi $ 54.000 per uno studente del primo anno che vive nel campus - ma promuove
69
+ anche borse di studio che vanno da $ 7.500 a $ 25.000 all'anno.
70
+ - Torna alle domande. Quante uova depongono gli scriccioli e gli uccelli azzurri
71
+ alla volta/in un anno? Gli scriccioli domestici in genere depongono da sei a otto
72
+ uova (ma è noto che ne depongono fino a 12!) In una covata, ma nidificano solo
73
+ una volta all'anno. Gli uccelli azzurri in genere depongono sei uova nella prima
74
+ covata e quattro o cinque nella seconda.
75
+ - source_sentence: chi ha promosso l'idea che, perseguendo il proprio interesse in
76
+ un libero mercato, si sarebbe effettivamente lavorato per il bene comune?
77
+ sentences:
78
+ - A cura del personale della Mayo Clinic. Il mal di testa da tuono è all'altezza
79
+ del suo nome, attirando la tua attenzione come un tuono. Il dolore di questi improvvisi
80
+ e forti mal di testa raggiunge il picco entro 60 secondi e può iniziare a svanire
81
+ dopo un'ora. Alcuni mal di testa a tuono, tuttavia, possono durare per più di
82
+ una settimana. Il mal di testa da tuono è spesso un segnale di avvertimento di
83
+ condizioni potenzialmente pericolose per la vita, solitamente legate a sanguinamento
84
+ all'interno e intorno al cervello. Ecco perché è così importante cercare assistenza
85
+ medica di emergenza se si verifica un mal di testa a tuono.
86
+ - Un'economia di mercato può consistere in vari tipi di cooperative, collettivi
87
+ o agenzie statali autonome che acquistano e scambiano beni capitali nei mercati
88
+ dei capitali, utilizzando un sistema di prezzi liberi per allocare beni capitali
89
+ e lavoro. Il termine economia di libero mercato è talvolta usato come sinonimo
90
+ di mercato economia, ma può anche riferirsi al laissez-faire o all'anarchismo
91
+ del libero mercato. Le economie di mercato non presuppongono logicamente l'esistenza
92
+ della proprietà privata nei mezzi di produzione.
93
+ - Nell'opera più influente di Smith, The Wealth of Nations, ha promosso l'idea che
94
+ perseguendo il proprio interesse personale in un libero mercato, si sarebbe effettivamente
95
+ lavorato per il bene comune. William Young
96
+ pipeline_tag: sentence-similarity
97
+ library_name: sentence-transformers
98
+ metrics:
99
+ - cosine_accuracy
100
+ model-index:
101
+ - name: Static Embeddings with italian BERT uncased tokenizer finetuned on a subset
102
+ of MMARCO
103
+ results:
104
+ - task:
105
+ type: triplet
106
+ name: Triplet
107
+ dataset:
108
+ name: mmarco dev
109
+ type: mmarco_dev
110
+ metrics:
111
+ - type: cosine_accuracy
112
+ value: 0.981249988079071
113
+ name: Cosine Accuracy
114
+ - task:
115
+ type: triplet
116
+ name: Triplet
117
+ dataset:
118
+ name: mmarco test
119
+ type: mmarco_test
120
+ metrics:
121
+ - type: cosine_accuracy
122
+ value: 0.9833999872207642
123
+ name: Cosine Accuracy
124
+ ---
125
+
126
+ # Static Embeddings with italian BERT uncased tokenizer finetuned on a subset of MMARCO
127
+
128
+ This is a [sentence-transformers](https://www.SBERT.net) model trained on the mmarco dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
129
+
130
+ ## Model Details
131
+
132
+ ### Model Description
133
+ - **Model Type:** Sentence Transformer
134
+ <!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
135
+ - **Maximum Sequence Length:** inf tokens
136
+ - **Output Dimensionality:** 1024 dimensions
137
+ - **Similarity Function:** Cosine Similarity
138
+ - **Training Dataset:**
139
+ - mmarco
140
+ <!-- - **Language:** Unknown -->
141
+ - **License:** apache-2.0
142
+
143
+ ### Model Sources
144
+
145
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
146
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
147
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
148
+
149
+ ### Full Model Architecture
150
+
151
+ ```
152
+ SentenceTransformer(
153
+ (0): StaticEmbedding(
154
+ (embedding): EmbeddingBag(31102, 1024, mode='mean')
155
+ )
156
+ )
157
+ ```
158
+
159
+ ## Usage
160
+
161
+ ### Direct Usage (Sentence Transformers)
162
+
163
+ First install the Sentence Transformers library:
164
+
165
+ ```bash
166
+ pip install -U sentence-transformers
167
+ ```
168
+
169
+ Then you can load this model and run inference.
170
+ ```python
171
+ from sentence_transformers import SentenceTransformer
172
+
173
+ # Download from the 🤗 Hub
174
+ model = SentenceTransformer("nickprock/static-similarity-mmarco3m-mrl-bert-base-italian-uncased")
175
+ # Run inference
176
+ sentences = [
177
+ "chi ha promosso l'idea che, perseguendo il proprio interesse in un libero mercato, si sarebbe effettivamente lavorato per il bene comune?",
178
+ "Nell'opera più influente di Smith, The Wealth of Nations, ha promosso l'idea che perseguendo il proprio interesse personale in un libero mercato, si sarebbe effettivamente lavorato per il bene comune. William Young",
179
+ "Un'economia di mercato può consistere in vari tipi di cooperative, collettivi o agenzie statali autonome che acquistano e scambiano beni capitali nei mercati dei capitali, utilizzando un sistema di prezzi liberi per allocare beni capitali e lavoro. Il termine economia di libero mercato è talvolta usato come sinonimo di mercato economia, ma può anche riferirsi al laissez-faire o all'anarchismo del libero mercato. Le economie di mercato non presuppongono logicamente l'esistenza della proprietà privata nei mezzi di produzione.",
180
+ ]
181
+ embeddings = model.encode(sentences)
182
+ print(embeddings.shape)
183
+ # [3, 1024]
184
+
185
+ # Get the similarity scores for the embeddings
186
+ similarities = model.similarity(embeddings, embeddings)
187
+ print(similarities.shape)
188
+ # [3, 3]
189
+ ```
190
+
191
+ <!--
192
+ ### Direct Usage (Transformers)
193
+
194
+ <details><summary>Click to see the direct usage in Transformers</summary>
195
+
196
+ </details>
197
+ -->
198
+
199
+ <!--
200
+ ### Downstream Usage (Sentence Transformers)
201
+
202
+ You can finetune this model on your own dataset.
203
+
204
+ <details><summary>Click to expand</summary>
205
+
206
+ </details>
207
+ -->
208
+
209
+ <!--
210
+ ### Out-of-Scope Use
211
+
212
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
213
+ -->
214
+
215
+ ## Evaluation
216
+
217
+ ### Metrics
218
+
219
+ #### Triplet
220
+
221
+ * Datasets: `mmarco_dev` and `mmarco_test`
222
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
223
+
224
+ | Metric | mmarco_dev | mmarco_test |
225
+ |:--------------------|:-----------|:------------|
226
+ | **cosine_accuracy** | **0.9812** | **0.9834** |
227
+
228
+ <!--
229
+ ## Bias, Risks and Limitations
230
+
231
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
232
+ -->
233
+
234
+ <!--
235
+ ### Recommendations
236
+
237
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
238
+ -->
239
+
240
+ ## Training Details
241
+
242
+ ### Training Dataset
243
+
244
+ #### mmarco
245
+
246
+ * Dataset: mmarco
247
+ * Size: 39,780,811 training samples
248
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
249
+ * Approximate statistics based on the first 1000 samples:
250
+ | | query | positive | negative |
251
+ |:--------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|
252
+ | type | string | string | string |
253
+ | details | <ul><li>min: 10 characters</li><li>mean: 39.06 characters</li><li>max: 163 characters</li></ul> | <ul><li>min: 65 characters</li><li>mean: 391.41 characters</li><li>max: 1036 characters</li></ul> | <ul><li>min: 61 characters</li><li>mean: 377.77 characters</li><li>max: 1105 characters</li></ul> |
254
+ * Samples:
255
+ | query | positive | negative |
256
+ |:-----------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
257
+ | <code>di cosa è fatta la lingua?</code> | <code>Lingua e gusto. La lingua è costituita da muscoli ricoperti da membrane mucose. Questi muscoli sono attaccati alla mascella inferiore e all'osso ioide, che si trova appena sopra la laringe e ancora i muscoli della lingua (è l'unico osso del corpo che non tocca nessun altro osso). più sotto. La lingua è costituita da muscoli ricoperti da membrane mucose. Questi muscoli sono attaccati alla mascella inferiore e all'osso ioide, che si trova appena sopra la laringe e ancora i muscoli della lingua (è l'unico osso del corpo che non tocca nessun altro osso).</code> | <code>1 Mal di gola e ulcere della lingua e mal di lingua (10 cause) 2 Mal di gola e ulcere della lingua e sintomi della lingua (10 cause) 3 Mal di gola e ulcere della lingua e sintomi del viso (9 cause) Mal di gola e ulcere della lingua e sintomi della testa (9 cause )</code> |
258
+ | <code>dove si trova l'utero nel corpo di una donna?</code> | <code>L'utero è un organo riproduttivo femminile situato tra la vescica e il retto, nella zona pelvica. L'utero ha tre strati: il rivestimento interno (endometrio); lo strato muscolare medio (miometrio); e lo strato esterno (perimetrio).</code> | <code>Panoramica sulle emorroidi. Le emorroidi sono vene dilatate situate nella parte inferiore del retto e dell'ano. Le vene si gonfiano a causa dell'aumento della pressione al loro interno, di solito da costipazione o diarrea profusa, e durante la gravidanza a causa della pressione dell'utero allargato. Le emorroidi interne si trovano nel rivestimento interno del retto e non possono essere percepite. Le vene si gonfiano a causa dell'aumento della pressione al loro interno, di solito da costipazione o diarrea profusa, e durante la gravidanza a causa della pressione dell'utero allargato. Le emorroidi interne si trovano nel rivestimento interno del retto e non possono essere percepite.</code> |
259
+ | <code>costo medio del riccio</code> | <code>Un riccio grigio può costare da $ 180 a $ 250, mentre un Cinnicot può costare da $ 180 a $ 250. Un pigmeo africano può variare da $ 50 a $ 300. L'allevatore PogStarHedgehogs.com, ad esempio, vende diversi tipi di ricci che vanno da $ 150 a $ 200.</code> | <code>Il costo medio totale (ATC) è anche chiamato costo medio o costo unitario. I costi totali medi sono un costo chiave nella teoria dell'impresa perché indicano l'efficienza con cui vengono utilizzate le risorse scarse. I costi variabili medi si trovano dividendo i costi variabili fissi totali per l'output. I costi totali medi sono un costo chiave nella teoria dell'impresa perché indicano l'efficienza con cui vengono utilizzate le risorse scarse. I costi variabili medi si ottengono dividendo i costi variabili fissi totali per l'output.</code> |
260
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
261
+ ```json
262
+ {
263
+ "loss": "MultipleNegativesRankingLoss",
264
+ "matryoshka_dims": [
265
+ 1024,
266
+ 768,
267
+ 512,
268
+ 256,
269
+ 128,
270
+ 64,
271
+ 32
272
+ ],
273
+ "matryoshka_weights": [
274
+ 1,
275
+ 1,
276
+ 1,
277
+ 1,
278
+ 1,
279
+ 1,
280
+ 1
281
+ ],
282
+ "n_dims_per_step": -1
283
+ }
284
+ ```
285
+
286
+ ### Evaluation Dataset
287
+
288
+ #### mmarco
289
+
290
+ * Dataset: mmarco
291
+ * Size: 39,780,811 evaluation samples
292
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
293
+ * Approximate statistics based on the first 1000 samples:
294
+ | | query | positive | negative |
295
+ |:--------|:-----------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|
296
+ | type | string | string | string |
297
+ | details | <ul><li>min: 9 characters</li><li>mean: 39.69 characters</li><li>max: 196 characters</li></ul> | <ul><li>min: 77 characters</li><li>mean: 396.0 characters</li><li>max: 1167 characters</li></ul> | <ul><li>min: 82 characters</li><li>mean: 379.98 characters</li><li>max: 990 characters</li></ul> |
298
+ * Samples:
299
+ | query | positive | negative |
300
+ |:------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
301
+ | <code>la massoterapia aiuta per la neuropatia?</code> | <code>Il Foot Pain Center, specializzato nel trattamento della neuropatia periferica, fa molto affidamento sull'uso della massoterapia nel trattamento di questa condizione. La definizione tecnica del massaggio è l'uso della pressione su strutture corporee mirate come muscoli, tendini, nervi, legamenti, articolazioni o vasi linfatici.</code> | <code>Il numero ORI per il Consiglio di massoterapia è EDOH4600Z. Tuttavia, è necessario portare con sé il modulo di rilevamento delle impronte digitali al venditore. Se fai domanda online, c'è un modulo che devi stampare con il tuo numero ORI precompilato.</code> |
302
+ | <code>quanto è pericoloso juarez 2015</code> | <code>Rio de Janeiro è la seconda città più grande del Brasile ed è un luogo molto comune da visitare per i turisti. Ma nonostante tutte queste cose, è considerata una delle città più pericolose al mondo nel 2015. Il traffico di droga e i crimini violenti sono al culmine in questa città. Ci sono stati molti tentativi di omicidio tra varie bande che hanno preso il controllo dell'intera città.ut, ci sono poche città al mondo che dovresti evitare di visitare a tutti i costi nel 2015. In questo articolo, elencheremo le 10 città più pericolose 2015.</code> | <code>Lana Lang Lana può essere pericolosa se minacciata o sospettosa, come te! È compassionevole e se tiene a qualcuno, non scherzare con loro. Ti amerà o ti odierà, suona familiare? Ana può essere pericolosa se minacciata o sospettosa, come te! È compassionevole e se tiene a qualcuno, non scherzare con loro. Ti amerà o ti odierà, ti suona familiare?</code> |
303
+ | <code>a cosa serve un radar?</code> | <code>Se gridi ciao, il suono potrebbe rimbalzare su di te da un oggetto di grandi dimensioni. Poi senti la tua voce che ritorna. La tua voce di ritorno si chiama eco. Radar e sonar sono dispositivi elettronici che utilizzano il principio di un'eco per rilevare e localizzare oggetti. Sia il radar che il sonar localizzano gli oggetti dall'eco di un segnale che viene rimbalzato sull'oggetto. Il radar utilizza le onde radio, che sono un tipo di energia elettromagnetica. Il sonar utilizza il principio dell'eco inviando onde sonore sott'acqua o attraverso il corpo umano per individuare gli oggetti. Le onde sonore sono un tipo di energia acustica. A causa del diverso tipo di energia utilizzata in radar e sonar, ognuno ha le proprie applicazioni.</code> | <code>per METEO LOCALE: PROFONDITÀ NEVE: RADAR METEO LOCALE: MAPPA METEO STATO: Medford, MA Medford, MA neve Medford, MA radar MA mappa-o--o--o- 02155 02155 neve 02155 radar -o--o- MA MA neve</code> |
304
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
305
+ ```json
306
+ {
307
+ "loss": "MultipleNegativesRankingLoss",
308
+ "matryoshka_dims": [
309
+ 1024,
310
+ 768,
311
+ 512,
312
+ 256,
313
+ 128,
314
+ 64,
315
+ 32
316
+ ],
317
+ "matryoshka_weights": [
318
+ 1,
319
+ 1,
320
+ 1,
321
+ 1,
322
+ 1,
323
+ 1,
324
+ 1
325
+ ],
326
+ "n_dims_per_step": -1
327
+ }
328
+ ```
329
+
330
+ ### Training Hyperparameters
331
+ #### Non-Default Hyperparameters
332
+
333
+ - `eval_strategy`: steps
334
+ - `per_device_train_batch_size`: 2048
335
+ - `per_device_eval_batch_size`: 2048
336
+ - `learning_rate`: 0.2
337
+ - `num_train_epochs`: 1
338
+ - `warmup_ratio`: 0.1
339
+ - `bf16`: True
340
+ - `load_best_model_at_end`: True
341
+ - `batch_sampler`: no_duplicates
342
+
343
+ #### All Hyperparameters
344
+ <details><summary>Click to expand</summary>
345
+
346
+ - `overwrite_output_dir`: False
347
+ - `do_predict`: False
348
+ - `eval_strategy`: steps
349
+ - `prediction_loss_only`: True
350
+ - `per_device_train_batch_size`: 2048
351
+ - `per_device_eval_batch_size`: 2048
352
+ - `per_gpu_train_batch_size`: None
353
+ - `per_gpu_eval_batch_size`: None
354
+ - `gradient_accumulation_steps`: 1
355
+ - `eval_accumulation_steps`: None
356
+ - `torch_empty_cache_steps`: None
357
+ - `learning_rate`: 0.2
358
+ - `weight_decay`: 0.0
359
+ - `adam_beta1`: 0.9
360
+ - `adam_beta2`: 0.999
361
+ - `adam_epsilon`: 1e-08
362
+ - `max_grad_norm`: 1.0
363
+ - `num_train_epochs`: 1
364
+ - `max_steps`: -1
365
+ - `lr_scheduler_type`: linear
366
+ - `lr_scheduler_kwargs`: {}
367
+ - `warmup_ratio`: 0.1
368
+ - `warmup_steps`: 0
369
+ - `log_level`: passive
370
+ - `log_level_replica`: warning
371
+ - `log_on_each_node`: True
372
+ - `logging_nan_inf_filter`: True
373
+ - `save_safetensors`: True
374
+ - `save_on_each_node`: False
375
+ - `save_only_model`: False
376
+ - `restore_callback_states_from_checkpoint`: False
377
+ - `no_cuda`: False
378
+ - `use_cpu`: False
379
+ - `use_mps_device`: False
380
+ - `seed`: 42
381
+ - `data_seed`: None
382
+ - `jit_mode_eval`: False
383
+ - `use_ipex`: False
384
+ - `bf16`: True
385
+ - `fp16`: False
386
+ - `fp16_opt_level`: O1
387
+ - `half_precision_backend`: auto
388
+ - `bf16_full_eval`: False
389
+ - `fp16_full_eval`: False
390
+ - `tf32`: None
391
+ - `local_rank`: 0
392
+ - `ddp_backend`: None
393
+ - `tpu_num_cores`: None
394
+ - `tpu_metrics_debug`: False
395
+ - `debug`: []
396
+ - `dataloader_drop_last`: False
397
+ - `dataloader_num_workers`: 0
398
+ - `dataloader_prefetch_factor`: None
399
+ - `past_index`: -1
400
+ - `disable_tqdm`: False
401
+ - `remove_unused_columns`: True
402
+ - `label_names`: None
403
+ - `load_best_model_at_end`: True
404
+ - `ignore_data_skip`: False
405
+ - `fsdp`: []
406
+ - `fsdp_min_num_params`: 0
407
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
408
+ - `tp_size`: 0
409
+ - `fsdp_transformer_layer_cls_to_wrap`: None
410
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
411
+ - `deepspeed`: None
412
+ - `label_smoothing_factor`: 0.0
413
+ - `optim`: adamw_torch
414
+ - `optim_args`: None
415
+ - `adafactor`: False
416
+ - `group_by_length`: False
417
+ - `length_column_name`: length
418
+ - `ddp_find_unused_parameters`: None
419
+ - `ddp_bucket_cap_mb`: None
420
+ - `ddp_broadcast_buffers`: False
421
+ - `dataloader_pin_memory`: True
422
+ - `dataloader_persistent_workers`: False
423
+ - `skip_memory_metrics`: True
424
+ - `use_legacy_prediction_loop`: False
425
+ - `push_to_hub`: False
426
+ - `resume_from_checkpoint`: None
427
+ - `hub_model_id`: None
428
+ - `hub_strategy`: every_save
429
+ - `hub_private_repo`: None
430
+ - `hub_always_push`: False
431
+ - `gradient_checkpointing`: False
432
+ - `gradient_checkpointing_kwargs`: None
433
+ - `include_inputs_for_metrics`: False
434
+ - `include_for_metrics`: []
435
+ - `eval_do_concat_batches`: True
436
+ - `fp16_backend`: auto
437
+ - `push_to_hub_model_id`: None
438
+ - `push_to_hub_organization`: None
439
+ - `mp_parameters`:
440
+ - `auto_find_batch_size`: False
441
+ - `full_determinism`: False
442
+ - `torchdynamo`: None
443
+ - `ray_scope`: last
444
+ - `ddp_timeout`: 1800
445
+ - `torch_compile`: False
446
+ - `torch_compile_backend`: None
447
+ - `torch_compile_mode`: None
448
+ - `dispatch_batches`: None
449
+ - `split_batches`: None
450
+ - `include_tokens_per_second`: False
451
+ - `include_num_input_tokens_seen`: False
452
+ - `neftune_noise_alpha`: None
453
+ - `optim_target_modules`: None
454
+ - `batch_eval_metrics`: False
455
+ - `eval_on_start`: False
456
+ - `use_liger_kernel`: False
457
+ - `eval_use_gather_object`: False
458
+ - `average_tokens_across_devices`: False
459
+ - `prompts`: None
460
+ - `batch_sampler`: no_duplicates
461
+ - `multi_dataset_batch_sampler`: proportional
462
+
463
+ </details>
464
+
465
+ ### Training Logs
466
+ | Epoch | Step | Training Loss | Validation Loss | mmarco_dev_cosine_accuracy | mmarco_test_cosine_accuracy |
467
+ |:------:|:----:|:-------------:|:---------------:|:--------------------------:|:---------------------------:|
468
+ | -1 | -1 | - | - | 0.7376 | - |
469
+ | 0.0007 | 1 | 41.641 | - | - | - |
470
+ | 0.0683 | 100 | 20.789 | 8.6823 | 0.9036 | - |
471
+ | 0.1365 | 200 | 7.6202 | 5.9332 | 0.9340 | - |
472
+ | 0.2048 | 300 | 5.5177 | 4.6173 | 0.9495 | - |
473
+ | 0.2730 | 400 | 4.3551 | 3.8064 | 0.9593 | - |
474
+ | 0.3413 | 500 | 3.7185 | 3.3687 | 0.9653 | - |
475
+ | 0.4096 | 600 | 3.256 | 3.0356 | 0.9711 | - |
476
+ | 0.4778 | 700 | 2.9338 | 2.8374 | 0.9740 | - |
477
+ | 0.5461 | 800 | 2.7087 | 2.6892 | 0.9762 | - |
478
+ | 0.6143 | 900 | 2.5392 | 2.5313 | 0.9781 | - |
479
+ | 0.6826 | 1000 | 2.3883 | 2.3742 | 0.9805 | - |
480
+ | 0.7509 | 1100 | 2.2713 | 2.2511 | 0.9812 | - |
481
+ | -1 | -1 | - | - | - | 0.9834 |
482
+
483
+
484
+ ### Framework Versions
485
+ - Python: 3.10.12
486
+ - Sentence Transformers: 3.5.0.dev0
487
+ - Transformers: 4.50.0.dev0
488
+ - PyTorch: 2.5.1+cu121
489
+ - Accelerate: 1.2.1
490
+ - Datasets: 3.3.1
491
+ - Tokenizers: 0.21.0
492
+
493
+ ## Citation
494
+
495
+ ### BibTeX
496
+
497
+ #### Sentence Transformers
498
+ ```bibtex
499
+ @inproceedings{reimers-2019-sentence-bert,
500
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
501
+ author = "Reimers, Nils and Gurevych, Iryna",
502
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
503
+ month = "11",
504
+ year = "2019",
505
+ publisher = "Association for Computational Linguistics",
506
+ url = "https://arxiv.org/abs/1908.10084",
507
+ }
508
+ ```
509
+
510
+ #### MatryoshkaLoss
511
+ ```bibtex
512
+ @misc{kusupati2024matryoshka,
513
+ title={Matryoshka Representation Learning},
514
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
515
+ year={2024},
516
+ eprint={2205.13147},
517
+ archivePrefix={arXiv},
518
+ primaryClass={cs.LG}
519
+ }
520
+ ```
521
+
522
+ #### MultipleNegativesRankingLoss
523
+ ```bibtex
524
+ @misc{henderson2017efficient,
525
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
526
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
527
+ year={2017},
528
+ eprint={1705.00652},
529
+ archivePrefix={arXiv},
530
+ primaryClass={cs.CL}
531
+ }
532
+ ```
533
+
534
+ <!--
535
+ ## Glossary
536
+
537
+ *Clearly define terms in order to be accessible across audiences.*
538
+ -->
539
+
540
+ <!--
541
+ ## Model Card Authors
542
+
543
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
544
+ -->
545
+
546
+ <!--
547
+ ## Model Card Contact
548
+
549
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
550
+ -->
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.5.0.dev0",
4
+ "transformers": "4.50.0.dev0",
5
+ "pytorch": "2.5.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
modules.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "0_StaticEmbedding",
6
+ "type": "sentence_transformers.models.StaticEmbedding"
7
+ }
8
+ ]