query-id
stringlengths
2
5
corpus-id
stringlengths
2
5
score
int64
1
1
q1
d1
1
q2
d2
1
q3
d3
1
q4
d4
1
q5
d5
1
q6
d6
1
q7
d7
1
q8
d8
1
q9
d9
1
q10
d10
1
q11
d11
1
q12
d12
1
q13
d13
1
q14
d14
1
q15
d15
1
q16
d16
1
q17
d17
1
q18
d18
1
q19
d19
1
q20
d20
1
q21
d21
1
q22
d22
1
q23
d23
1
q24
d24
1
q25
d25
1
q26
d26
1
q27
d27
1
q28
d28
1
q29
d29
1
q30
d30
1
q31
d31
1
q32
d32
1
q33
d33
1
q34
d34
1
q35
d35
1
q36
d36
1
q37
d37
1
q38
d38
1
q39
d39
1
q40
d40
1
q41
d41
1
q42
d42
1
q43
d43
1
q44
d44
1
q45
d45
1
q46
d46
1
q47
d47
1
q48
d48
1
q49
d49
1
q50
d50
1
q51
d51
1
q52
d52
1
q53
d53
1
q54
d54
1
q55
d55
1
q56
d56
1
q57
d57
1
q58
d58
1
q59
d59
1
q60
d60
1
q61
d61
1
q62
d62
1
q63
d63
1
q64
d64
1
q65
d65
1
q66
d66
1
q67
d67
1
q68
d68
1
q69
d69
1
q70
d70
1
q71
d71
1
q72
d72
1
q73
d73
1
q74
d74
1
q75
d75
1
q76
d76
1
q77
d77
1
q78
d78
1
q79
d79
1
q80
d80
1
q81
d81
1
q82
d82
1
q83
d83
1
q84
d84
1
q85
d85
1
q86
d86
1
q87
d87
1
q88
d88
1
q89
d89
1
q90
d90
1
q91
d91
1
q92
d92
1
q93
d93
1
q94
d94
1
q95
d95
1
q96
d96
1
q97
d97
1
q98
d98
1
q99
d99
1
q100
d100
1

Employing the MTEB evaluation framework's dataset version, utilize the code below for assessment:

import mteb
import logging
from sentence_transformers import SentenceTransformer
from mteb import MTEB

logger = logging.getLogger(__name__)

model_name = 'intfloat/e5-base-v2'
model = SentenceTransformer(model_name)
tasks = mteb.get_tasks(
    tasks=[
        "AppsRetrieval",
        "CodeFeedbackMT",
        "CodeFeedbackST",
        "CodeTransOceanContest",
        "CodeTransOceanDL",
        "CosQA",
        "SyntheticText2SQL",
        "StackOverflowQA",
        "COIRCodeSearchNetRetrieval",
        "CodeSearchNetCCRetrieval",
    ]
)
evaluation = MTEB(tasks=tasks)
results = evaluation.run(
    model=model,
    overwrite_results=True
)
print(result)
Downloads last month
493
Edit dataset card