query-id
stringlengths 2
5
| corpus-id
stringlengths 2
5
| score
int64 1
1
|
---|---|---|
q1 | d1 | 1 |
q2 | d2 | 1 |
q3 | d3 | 1 |
q4 | d4 | 1 |
q5 | d5 | 1 |
q6 | d6 | 1 |
q7 | d7 | 1 |
q8 | d8 | 1 |
q9 | d9 | 1 |
q10 | d10 | 1 |
q11 | d11 | 1 |
q12 | d12 | 1 |
q13 | d13 | 1 |
q14 | d14 | 1 |
q15 | d15 | 1 |
q16 | d16 | 1 |
q17 | d17 | 1 |
q18 | d18 | 1 |
q19 | d19 | 1 |
q20 | d20 | 1 |
q21 | d21 | 1 |
q22 | d22 | 1 |
q23 | d23 | 1 |
q24 | d24 | 1 |
q25 | d25 | 1 |
q26 | d26 | 1 |
q27 | d27 | 1 |
q28 | d28 | 1 |
q29 | d29 | 1 |
q30 | d30 | 1 |
q31 | d31 | 1 |
q32 | d32 | 1 |
q33 | d33 | 1 |
q34 | d34 | 1 |
q35 | d35 | 1 |
q36 | d36 | 1 |
q37 | d37 | 1 |
q38 | d38 | 1 |
q39 | d39 | 1 |
q40 | d40 | 1 |
q41 | d41 | 1 |
q42 | d42 | 1 |
q43 | d43 | 1 |
q44 | d44 | 1 |
q45 | d45 | 1 |
q46 | d46 | 1 |
q47 | d47 | 1 |
q48 | d48 | 1 |
q49 | d49 | 1 |
q50 | d50 | 1 |
q51 | d51 | 1 |
q52 | d52 | 1 |
q53 | d53 | 1 |
q54 | d54 | 1 |
q55 | d55 | 1 |
q56 | d56 | 1 |
q57 | d57 | 1 |
q58 | d58 | 1 |
q59 | d59 | 1 |
q60 | d60 | 1 |
q61 | d61 | 1 |
q62 | d62 | 1 |
q63 | d63 | 1 |
q64 | d64 | 1 |
q65 | d65 | 1 |
q66 | d66 | 1 |
q67 | d67 | 1 |
q68 | d68 | 1 |
q69 | d69 | 1 |
q70 | d70 | 1 |
q71 | d71 | 1 |
q72 | d72 | 1 |
q73 | d73 | 1 |
q74 | d74 | 1 |
q75 | d75 | 1 |
q76 | d76 | 1 |
q77 | d77 | 1 |
q78 | d78 | 1 |
q79 | d79 | 1 |
q80 | d80 | 1 |
q81 | d81 | 1 |
q82 | d82 | 1 |
q83 | d83 | 1 |
q84 | d84 | 1 |
q85 | d85 | 1 |
q86 | d86 | 1 |
q87 | d87 | 1 |
q88 | d88 | 1 |
q89 | d89 | 1 |
q90 | d90 | 1 |
q91 | d91 | 1 |
q92 | d92 | 1 |
q93 | d93 | 1 |
q94 | d94 | 1 |
q95 | d95 | 1 |
q96 | d96 | 1 |
q97 | d97 | 1 |
q98 | d98 | 1 |
q99 | d99 | 1 |
q100 | d100 | 1 |
End of preview. Expand
in Dataset Viewer.
Employing the MTEB evaluation framework's dataset version, utilize the code below for assessment:
import mteb
import logging
from sentence_transformers import SentenceTransformer
from mteb import MTEB
logger = logging.getLogger(__name__)
model_name = 'intfloat/e5-base-v2'
model = SentenceTransformer(model_name)
tasks = mteb.get_tasks(
tasks=[
"AppsRetrieval",
"CodeFeedbackMT",
"CodeFeedbackST",
"CodeTransOceanContest",
"CodeTransOceanDL",
"CosQA",
"SyntheticText2SQL",
"StackOverflowQA",
"COIRCodeSearchNetRetrieval",
"CodeSearchNetCCRetrieval",
]
)
evaluation = MTEB(tasks=tasks)
results = evaluation.run(
model=model,
overwrite_results=True
)
print(result)
- Downloads last month
- 493