minhdang commited on
Commit
84ba3ad
·
verified ·
1 Parent(s): 62a9db2

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,949 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:107510
8
+ - loss:MatryoshkaLoss
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: Alibaba-NLP/gte-multilingual-base
11
+ widget:
12
+ - source_sentence: '[''Chỉ định thầu\n1. Chỉ định thầu được áp dụng trong các trường
13
+ hợp sau đây:\na) Gói thầu cấp bách cần triển khai nhằm mục tiêu bảo vệ chủ quyền,
14
+ an ninh quốc gia; gói thầu cần thực hiện để khắc phục ngay hoặc để xử lý kịp thời
15
+ hậu quả gây ra do thiên tai, hỏa hoạn, tai nạn bất ngờ, sự cố, thảm họa hoặc sự
16
+ kiện bất khả kháng khác;\nb) Gói thầu cung cấp dịch vụ tư vấn, phi tư vấn, hàng
17
+ hóa, xây lắp cần triển khai ngay để tránh gây nguy hại đến tính mạng và tài sản
18
+ của cộng đồng dân cư trên địa bàn hoặc để không ảnh hưởng nghiêm trọng đến công
19
+ trình liền kề;\nc) Gói thầu cung cấp dịch vụ tư vấn, phi tư vấn, thuốc, hóa chất,
20
+ vật tư xét nghiệm, thiết bị y tế, linh kiện, phụ kiện, phương tiện, xây lắp cần
21
+ triển khai ngay để phục vụ công tác phòng, chống dịch bệnh hoặc duy trì hoạt động
22
+ của cơ sở khám bệnh, chữa bệnh trong trường hợp cấp bách, tránh gây nguy hại đến
23
+ tính mạng, sức khỏe người dân; gói thầu mua thuốc, hóa chất, vật tư xét nghiệm,
24
+ thiết bị y tế, linh kiện, phụ kiện để cấp cứu người bệnh trong tình trạng cấp
25
+ cứu theo quy định của Luật Khám bệnh, chữa bệnh trong trường hợp cơ sở khám bệnh,
26
+ chữa bệnh không có đủ thuốc, hóa chất, vật tư xét nghiệm, thiết bị y tế, linh
27
+ kiện, phụ kiện; gói thầu mua thuốc, thiết bị y tế chỉ có duy nhất một hãng sản
28
+ xuất trên thị trường;\nd) Gói thầu cần thực hiện để bảo vệ bí mật nhà nước;\n...'']'
29
+ sentences:
30
+ - Trong trường hợp nào thì ngân sách trung ương được gia hạn khoản vay ngân quỹ
31
+ nhà nước?
32
+ - Hành vi trình diễn khiêu dâm trong cấu thành tội sử dụng người dưới 16 tuổi vào
33
+ mục đích khiêu dâm là gì?
34
+ - Cho phép chỉ định thầu để mua thuốc, thiết bị y tế trong trường hợp khẩn cấp?
35
+ - source_sentence: "['\"1. Cuối mỗi học kỳ chính, sinh viên được cảnh báo học tập\
36
+ \ dựa trên một số điều kiện như sau:\\na) Tổng số tín chỉ không đạt trong học\
37
+ \ kỳ vượt quá 50% khối lượng đã đăng kí học trong học kỳ, hoặc tổng số tín chỉ\
38
+ \ nợ đọng từ đầu khóa học vượt quá 24;\\nb) Điểm trung bình học kỳ đạt dưới 0,8\
39
+ \ đối với học kỳ đầu của khóa học, dưới 1,0 đối với các học kỳ tiếp theo;\\nc)\
40
+ \ Điểm trung bình tích lũy đạt dưới 1,2 đối với sinh viên trình độ năm thứ nhất,\
41
+ \ dưới 1,4 đối với sinh viên trình độ năm thứ hai, dưới 1,6 đối với sinh viên\
42
+ \ trình độ năm thứ ba dưới 1,8 đối với sinh viên các năm tiếp theo.\\n2. Sinh\
43
+ \ viên bị buộc thôi học trong các trường hợp sau:\\na) Số lần cảnh báo học tập\
44
+ \ hoặc mức cảnh báo học tập vượt quá giới hạn theo quy định của cơ sở đào tạo;\\\
45
+ nb) Thời gian học tập vượt quá giới hạn theo quy định tại khoản 5 Điều 2 của Quy\
46
+ \ chế này.\\n3. Quy chế của cơ sở đào tạo quy định cụ thể:\\na) Việc lựa chọn\
47
+ \ áp dụng một số điều kiện cảnh báo học tập, giới hạn số lần hoặc mức cảnh báo\
48
+ \ học tập nhưng không vượt quá 2 lần cảnh báo liên tiếp;\\nb) Quy trình, thủ tục\
49
+ \ cảnh báo học tập, buộc thôi học; việc thông báo hình thức áp dụng tới sinh viên;\\\
50
+ nc) Việc bảo lưu kết quả học tập đã tích luỹ trong trường hợp sinh viên bị buộc\
51
+ \ thôi học.\"'\n '\"1. Cuối mỗi năm học, sinh viên được đánh giá đạt tiến độ học\
52
+ \ tập bình thường và được học tiếp lên năm học sau nếu đạt cả hai điều kiện sau:\\\
53
+ na) Điểm trung bình năm học đạt từ 1,0 trở lên đối với năm học thứ nhất, từ 1,2\
54
+ \ trở lên đối với năm thứ hai và từ 1,4 đối với năm thứ ba trở đi;\\nb) Số tín\
55
+ \ chỉ nợ đọng từ đầu khóa không vượt quá 16.\\n2. Sinh viên bị buộc thôi học trong\
56
+ \ các trường hợp sau:\\na) Điểm trung bình năm học đạt dưới 0,8;\\nb) Điểm trung\
57
+ \ bình tích lũy đạt dưới 1,2 sau 2 năm học, dưới 1,4 sau 3 năm học và dưới 1,6\
58
+ \ từ sau 4 năm học trở đi;\\nc) Thời gian học tập vượt quá giới hạn theo quy định\
59
+ \ tại khoản 5 Điều 2 của Quy chế này.\\n3. Sinh viên không thuộc diện quy định\
60
+ \ tại khoản 1 và khoản 2 Điều này được xếp lớp học cùng khoá sau để cải thiện\
61
+ \ kết quả học tập.\\n4. Quy chế của cơ sở đào tạo quy định cụ thể:\\na) Việc lựa\
62
+ \ chọn áp dụng một số điều kiện cảnh báo học tập tương tự quy định đối với đào\
63
+ \ tạo theo tín chỉ tại khoản 1 Điều 11 của Quy chế này;\\nb) Quy trình, thủ tục\
64
+ \ cảnh báo học tập (nếu có), buộc thôi học; việc thông báo hình thức áp dụng tới\
65
+ \ sinh viên;\\nc) Việc bảo lưu kết quả học tập đã tích luỹ trong trường hợp sinh\
66
+ \ viên bị buộc thôi học.\"']"
67
+ sentences:
68
+ - Người lao động có thời gian tham gia bảo hiểm xã hội bắt buộc mà tự tử có được
69
+ hưởng trợ cấp mai táng không?
70
+ - Giấy chứng nhận sử dụng công cụ hỗ trợ bị mất thì trình tự, thủ tục đề nghị cấp
71
+ lại được thực hiện như thế nào?
72
+ - Xử lý kết quả học tập theo tín chỉ và niên chế được quy định như thế nào?
73
+ - source_sentence: '[''Chuyển ngành, chuyển nơi học, chuyển cơ sở đào tạo, chuyển
74
+ hình thức học\n1. Sinh viên được xem xét chuyển sang học một chương trình, một
75
+ ngành đào tạo khác, hoặc một phân hiệu khác của cơ sở đào tạo, hoặc từ phân hiệu
76
+ về trụ sở chính khi có đủ các điều kiện sau:\na) Không đang là sinh viên trình
77
+ độ năm thứ nhất hoặc năm cuối khóa, không thuộc diện bị xem xét buộc thôi học
78
+ và còn đủ thời gian học tập theo quy định tại khoản 5 Điều 2 của Quy chế này;\nb)
79
+ Sinh viên đạt điều kiện trúng tuyển của chương trình, ngành đào tạo, của trụ sở
80
+ chính (hoặc phân hiệu ) trong cùng khóa tuyển sinh;\nc) Cơ sở đào tạo, trụ sở
81
+ chính (hoặc phân hiệu) có đủ các điều kiện bảo đảm chất lượng, chưa vượt quá năng
82
+ lực đào tạo đối với chương trình, ngành đào tạo đó theo quy định hiện hành của
83
+ Bộ Giáo dục và Đào tạo;\nd) Được sự đồng ý của thủ trưởng các đơn vị chuyên môn
84
+ phụ trách chương trình, ngành đào tạo, người phụ trách phân hiệu (nơi chuyển đi
85
+ và chuyến đến) và của hiệu trưởng cơ sở đào tạo.\n2. Sinh viên được xem xét chuyển
86
+ cơ sở đào tạo khi có đủ các điều kiện sau:\na) Không đang là sinh viên trình độ
87
+ năm thứ nhất hoặc năm cuối khóa, không thuộc diện bị xem xét buộc thôi học và
88
+ còn đủ thời gian học tập theo quy định tại khoản 5 Điều 2 của Quy chế này;\nb)
89
+ Sinh viên đạt điều kiện trúng tuyển của chương trình, ngành đào tạo cùng khóa
90
+ tuyển sinh tại nơi chuyển đến;\nc) Nơi chuyển đến có đủ các điều kiện bảo đảm
91
+ chất lượng, chưa vượt quá năng lực đào tạo đối với chương trình, ngành đào tạo
92
+ đó theo quy định hiện hành của Bộ Giáo dục và Đào tạo;\nd) Được sự đồng ý của
93
+ hiệu trưởng cơ sở đào tạo xin chuyển đi và cơ sở đào tạo xin chuyển đến.\n3. Sinh
94
+ viên được xem xét chuyển từ đào tạo theo hình thức chính quy sang hình thức vừa
95
+ làm vừa học hoặc đào tạo từ xa của cơ sở đào tạo nếu còn đủ thời gian học tập
96
+ theo quy định đối với hình thức chuyển đến.\n4. Quy chế của cơ sở đào tạo quy
97
+ định chi tiết thẩm quyền, điều kiện, thủ tục chuyển chương trình, ngành đào tạo,
98
+ chuyển nơi học, chuyển cơ sở đào tạo hoặc chuyển hình thức học; việc công nhận
99
+ kết quả học tập hoặc chuyển đổi tín chỉ đã tích lũy đối cho sinh viên thuộc các
100
+ trường hợp này.'']'
101
+ sentences:
102
+ - Điều kiện để được chuyển ngành, chuyển nơi học, chuyển cơ sở đào tạo, chuyển hình
103
+ thức học đối với sinh viên?
104
+ - Chi hỗ trợ học nghề cho người sau cai nghiện ma túy được thực hiện như thế nào?
105
+ - Nhiệm vụ của Hiệp hội Nhiên liệu sinh học Việt Nam là gì?
106
+ - source_sentence: "['\"4. Thủ tục chứng thực chữ ký quy định tại Khoản 1, 2 và 3\
107
+ \ Điều này cũng được áp dụng đối với các trường hợp sau đây:\\na) Chứng thực chữ\
108
+ \ ký của nhiều ngư���i trong cùng một giấy tờ, văn bản;\\nb) Chứng thực chữ ký của\
109
+ \ người khai lý lịch cá nhân;\\nc) Chứng thực chữ ký trong giấy tờ, văn bản do\
110
+ \ cá nhân tự lập theo quy định của pháp luật;\\nd) Chứng thực chữ ký trong Giấy\
111
+ \ ủy quyền đối với trường hợp ủy quyền không có thù lao, không có nghĩa vụ bồi\
112
+ \ thường của bên được ủy quyền và không liên quan đến việc chuyển quyền sở hữu\
113
+ \ tài sản, quyền sử dụng bất động sản.\"'\n '\"Điều 24. Thủ tục chứng thực chữ\
114
+ \ ký\\n2. Người thực hiện chứng thực kiểm tra giấy tờ yêu cầu chứng thực, nếu\
115
+ \ thấy đủ giấy tờ theo quy định tại Khoản 1 Điều này, tại thời điểm chứng thực,\
116
+ \ người yêu cầu chứng thực minh mẫn, nhận thức và làm chủ được hành vi của mình\
117
+ \ và việc chứng thực không thuộc các trường hợp quy định tại Điều 25 của Nghị\
118
+ \ định này thì yêu cầu người yêu cầu chứng thực ký trước mặt và thực hiện chứng\
119
+ \ thực như sau:\\na) Ghi đầy đủ lời chứng chứng thực chữ ký theo mẫu quy định;\\\
120
+ nb) Ký, ghi rõ họ tên, đóng dấu của cơ quan, tổ chức thực hiện chứng thực và ghi\
121
+ \ vào sổ chứng thực.\\nĐối với giấy tờ, văn bản có từ (02) hai trang trở lên thì\
122
+ \ ghi lời chứng vào trang cuối, nếu giấy tờ, văn bản có từ 02 (hai) tờ trở lên\
123
+ \ thì phải đóng dấu giáp lai.\"']"
124
+ sentences:
125
+ - Bí thư Thường trực Trung ương Đoàn Thanh niên Cộng sản Hồ Chí Minh được nhận mức
126
+ phụ cấp phục vụ bao nhiêu?
127
+ - Định giá lại tài sản lần thứ hai trong vụ án hình sự được thực hiện khi nào?
128
+ - Chứng thực chữ ký cho giấy uỷ quyền sẽ được thực hiện như thế nào?
129
+ - source_sentence: '[''Mức giảm thời hạn chấp hành án phạt tù\n1. Phạm nhân bị phạt
130
+ tù chung thân, lần đầu được giảm xuống ba mươi năm.\n2. Phạm nhân bị phạt tù từ
131
+ ba mươi năm trở xuống, mỗi lần có thể được giảm từ một tháng đến ba năm. Trường
132
+ hợp được giảm ba năm phải là những phạm nhân chấp hành nghiêm chỉnh Nội quy trại
133
+ giam, trại tạm giam, nhà tạm giữ và lập công hoặc có thành tích đặc biệt xuất
134
+ sắc trong lao động, học tập cải tạo.\n3. Mỗi năm một phạm nhân chỉ được xét giảm
135
+ thời hạn chấp hành án phạt tù một lần, khoảng cách giữa hai lần xét giảm ít nhất
136
+ là một năm. Trường hợp đã được giảm mà thời hạn tù còn lại không đủ một năm thì
137
+ năm tiếp theo có thể đề nghị xét giảm sớm hơn trước một đợt, nhưng vẫn phải bảo
138
+ đảm mỗi năm chỉ được xét giảm một lần.\nTrường hợp sau khi đã được giảm thời hạn
139
+ mà có lý do đặc biệt đáng được khoan hồng như lập công hoặc mắc bệnh hiểm nghèo
140
+ thì có thể được xét giảm thêm nhưng không được quá hai lần trong một năm.\n4.
141
+ Mỗi phạm nhân có thể được giảm thời hạn chấp hành án phạt tù nhiều lần, nhưng
142
+ phải bảo đảm thời hạn thực tế chấp hành án phạt tù được một phần hai mức hình
143
+ phạt tù có thời hạn đã tuyên hoặc hai mươi năm đối với hình phạt tù chung thân.'']'
144
+ sentences:
145
+ - Mỗi năm thì phạm nhân được xét giảm thời hạn chấp hành án phạt tù bao nhiêu lần?
146
+ - Giám đốc Quỹ bảo tồn di sản Huế do ai bổ nhiệm?
147
+ - Chấp hành viên có bắt buộc ký tên vào văn bản thỏa thuận thi hành án dân sự của
148
+ đương sự hay không?
149
+ pipeline_tag: sentence-similarity
150
+ library_name: sentence-transformers
151
+ metrics:
152
+ - cosine_accuracy@1
153
+ - cosine_accuracy@3
154
+ - cosine_accuracy@5
155
+ - cosine_accuracy@10
156
+ - cosine_precision@1
157
+ - cosine_precision@3
158
+ - cosine_precision@5
159
+ - cosine_precision@10
160
+ - cosine_recall@1
161
+ - cosine_recall@3
162
+ - cosine_recall@5
163
+ - cosine_recall@10
164
+ - cosine_ndcg@10
165
+ - cosine_mrr@10
166
+ - cosine_map@100
167
+ model-index:
168
+ - name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
169
+ results:
170
+ - task:
171
+ type: information-retrieval
172
+ name: Information Retrieval
173
+ dataset:
174
+ name: dim 768
175
+ type: dim_768
176
+ metrics:
177
+ - type: cosine_accuracy@1
178
+ value: 0.2955801104972376
179
+ name: Cosine Accuracy@1
180
+ - type: cosine_accuracy@3
181
+ value: 0.48920140632847814
182
+ name: Cosine Accuracy@3
183
+ - type: cosine_accuracy@5
184
+ value: 0.5747530554160388
185
+ name: Cosine Accuracy@5
186
+ - type: cosine_accuracy@10
187
+ value: 0.6760421898543445
188
+ name: Cosine Accuracy@10
189
+ - type: cosine_precision@1
190
+ value: 0.2955801104972376
191
+ name: Cosine Precision@1
192
+ - type: cosine_precision@3
193
+ value: 0.16306713544282603
194
+ name: Cosine Precision@3
195
+ - type: cosine_precision@5
196
+ value: 0.11495061108320775
197
+ name: Cosine Precision@5
198
+ - type: cosine_precision@10
199
+ value: 0.06760421898543445
200
+ name: Cosine Precision@10
201
+ - type: cosine_recall@1
202
+ value: 0.2955801104972376
203
+ name: Cosine Recall@1
204
+ - type: cosine_recall@3
205
+ value: 0.48920140632847814
206
+ name: Cosine Recall@3
207
+ - type: cosine_recall@5
208
+ value: 0.5747530554160388
209
+ name: Cosine Recall@5
210
+ - type: cosine_recall@10
211
+ value: 0.6760421898543445
212
+ name: Cosine Recall@10
213
+ - type: cosine_ndcg@10
214
+ value: 0.477230404285928
215
+ name: Cosine Ndcg@10
216
+ - type: cosine_mrr@10
217
+ value: 0.41460005872989236
218
+ name: Cosine Mrr@10
219
+ - type: cosine_map@100
220
+ value: 0.42407099092866546
221
+ name: Cosine Map@100
222
+ - task:
223
+ type: information-retrieval
224
+ name: Information Retrieval
225
+ dataset:
226
+ name: dim 512
227
+ type: dim_512
228
+ metrics:
229
+ - type: cosine_accuracy@1
230
+ value: 0.29449188012723926
231
+ name: Cosine Accuracy@1
232
+ - type: cosine_accuracy@3
233
+ value: 0.4896199564707852
234
+ name: Cosine Accuracy@3
235
+ - type: cosine_accuracy@5
236
+ value: 0.5724928846475807
237
+ name: Cosine Accuracy@5
238
+ - type: cosine_accuracy@10
239
+ value: 0.6713544282605056
240
+ name: Cosine Accuracy@10
241
+ - type: cosine_precision@1
242
+ value: 0.29449188012723926
243
+ name: Cosine Precision@1
244
+ - type: cosine_precision@3
245
+ value: 0.1632066521569284
246
+ name: Cosine Precision@3
247
+ - type: cosine_precision@5
248
+ value: 0.11449857692951614
249
+ name: Cosine Precision@5
250
+ - type: cosine_precision@10
251
+ value: 0.06713544282605056
252
+ name: Cosine Precision@10
253
+ - type: cosine_recall@1
254
+ value: 0.29449188012723926
255
+ name: Cosine Recall@1
256
+ - type: cosine_recall@3
257
+ value: 0.4896199564707852
258
+ name: Cosine Recall@3
259
+ - type: cosine_recall@5
260
+ value: 0.5724928846475807
261
+ name: Cosine Recall@5
262
+ - type: cosine_recall@10
263
+ value: 0.6713544282605056
264
+ name: Cosine Recall@10
265
+ - type: cosine_ndcg@10
266
+ value: 0.4743515215291094
267
+ name: Cosine Ndcg@10
268
+ - type: cosine_mrr@10
269
+ value: 0.41222767666137783
270
+ name: Cosine Mrr@10
271
+ - type: cosine_map@100
272
+ value: 0.4218120045923118
273
+ name: Cosine Map@100
274
+ - task:
275
+ type: information-retrieval
276
+ name: Information Retrieval
277
+ dataset:
278
+ name: dim 256
279
+ type: dim_256
280
+ metrics:
281
+ - type: cosine_accuracy@1
282
+ value: 0.28511635693956133
283
+ name: Cosine Accuracy@1
284
+ - type: cosine_accuracy@3
285
+ value: 0.4783191026284949
286
+ name: Cosine Accuracy@3
287
+ - type: cosine_accuracy@5
288
+ value: 0.5605223505775992
289
+ name: Cosine Accuracy@5
290
+ - type: cosine_accuracy@10
291
+ value: 0.6628997153859032
292
+ name: Cosine Accuracy@10
293
+ - type: cosine_precision@1
294
+ value: 0.28511635693956133
295
+ name: Cosine Precision@1
296
+ - type: cosine_precision@3
297
+ value: 0.15943970087616496
298
+ name: Cosine Precision@3
299
+ - type: cosine_precision@5
300
+ value: 0.11210447011551983
301
+ name: Cosine Precision@5
302
+ - type: cosine_precision@10
303
+ value: 0.06628997153859031
304
+ name: Cosine Precision@10
305
+ - type: cosine_recall@1
306
+ value: 0.28511635693956133
307
+ name: Cosine Recall@1
308
+ - type: cosine_recall@3
309
+ value: 0.4783191026284949
310
+ name: Cosine Recall@3
311
+ - type: cosine_recall@5
312
+ value: 0.5605223505775992
313
+ name: Cosine Recall@5
314
+ - type: cosine_recall@10
315
+ value: 0.6628997153859032
316
+ name: Cosine Recall@10
317
+ - type: cosine_ndcg@10
318
+ value: 0.4650207581954583
319
+ name: Cosine Ndcg@10
320
+ - type: cosine_mrr@10
321
+ value: 0.40272748532417074
322
+ name: Cosine Mrr@10
323
+ - type: cosine_map@100
324
+ value: 0.4121698601916915
325
+ name: Cosine Map@100
326
+ - task:
327
+ type: information-retrieval
328
+ name: Information Retrieval
329
+ dataset:
330
+ name: dim 128
331
+ type: dim_128
332
+ metrics:
333
+ - type: cosine_accuracy@1
334
+ value: 0.2735643730118868
335
+ name: Cosine Accuracy@1
336
+ - type: cosine_accuracy@3
337
+ value: 0.4610748367654445
338
+ name: Cosine Accuracy@3
339
+ - type: cosine_accuracy@5
340
+ value: 0.543529214799933
341
+ name: Cosine Accuracy@5
342
+ - type: cosine_accuracy@10
343
+ value: 0.6400468776159384
344
+ name: Cosine Accuracy@10
345
+ - type: cosine_precision@1
346
+ value: 0.2735643730118868
347
+ name: Cosine Precision@1
348
+ - type: cosine_precision@3
349
+ value: 0.15369161225514816
350
+ name: Cosine Precision@3
351
+ - type: cosine_precision@5
352
+ value: 0.1087058429599866
353
+ name: Cosine Precision@5
354
+ - type: cosine_precision@10
355
+ value: 0.06400468776159383
356
+ name: Cosine Precision@10
357
+ - type: cosine_recall@1
358
+ value: 0.2735643730118868
359
+ name: Cosine Recall@1
360
+ - type: cosine_recall@3
361
+ value: 0.4610748367654445
362
+ name: Cosine Recall@3
363
+ - type: cosine_recall@5
364
+ value: 0.543529214799933
365
+ name: Cosine Recall@5
366
+ - type: cosine_recall@10
367
+ value: 0.6400468776159384
368
+ name: Cosine Recall@10
369
+ - type: cosine_ndcg@10
370
+ value: 0.4483492533628726
371
+ name: Cosine Ndcg@10
372
+ - type: cosine_mrr@10
373
+ value: 0.387943762805642
374
+ name: Cosine Mrr@10
375
+ - type: cosine_map@100
376
+ value: 0.3975600153943611
377
+ name: Cosine Map@100
378
+ - task:
379
+ type: information-retrieval
380
+ name: Information Retrieval
381
+ dataset:
382
+ name: dim 64
383
+ type: dim_64
384
+ metrics:
385
+ - type: cosine_accuracy@1
386
+ value: 0.2466097438473129
387
+ name: Cosine Accuracy@1
388
+ - type: cosine_accuracy@3
389
+ value: 0.42005692281935375
390
+ name: Cosine Accuracy@3
391
+ - type: cosine_accuracy@5
392
+ value: 0.49891176963000167
393
+ name: Cosine Accuracy@5
394
+ - type: cosine_accuracy@10
395
+ value: 0.5950108823037
396
+ name: Cosine Accuracy@10
397
+ - type: cosine_precision@1
398
+ value: 0.2466097438473129
399
+ name: Cosine Precision@1
400
+ - type: cosine_precision@3
401
+ value: 0.1400189742731179
402
+ name: Cosine Precision@3
403
+ - type: cosine_precision@5
404
+ value: 0.09978235392600034
405
+ name: Cosine Precision@5
406
+ - type: cosine_precision@10
407
+ value: 0.059501088230369995
408
+ name: Cosine Precision@10
409
+ - type: cosine_recall@1
410
+ value: 0.2466097438473129
411
+ name: Cosine Recall@1
412
+ - type: cosine_recall@3
413
+ value: 0.42005692281935375
414
+ name: Cosine Recall@3
415
+ - type: cosine_recall@5
416
+ value: 0.49891176963000167
417
+ name: Cosine Recall@5
418
+ - type: cosine_recall@10
419
+ value: 0.5950108823037
420
+ name: Cosine Recall@10
421
+ - type: cosine_ndcg@10
422
+ value: 0.4117058390410184
423
+ name: Cosine Ndcg@10
424
+ - type: cosine_mrr@10
425
+ value: 0.35411208905684183
426
+ name: Cosine Mrr@10
427
+ - type: cosine_map@100
428
+ value: 0.36371800437559065
429
+ name: Cosine Map@100
430
+ ---
431
+
432
+ # SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
433
+
434
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
435
+
436
+ ## Model Details
437
+
438
+ ### Model Description
439
+ - **Model Type:** Sentence Transformer
440
+ - **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) <!-- at revision 7fc06782350c1a83f88b15dd4b38ef853d3b8503 -->
441
+ - **Maximum Sequence Length:** 1024 tokens
442
+ - **Output Dimensionality:** 768 tokens
443
+ - **Similarity Function:** Cosine Similarity
444
+ - **Training Dataset:**
445
+ - json
446
+ <!-- - **Language:** Unknown -->
447
+ <!-- - **License:** Unknown -->
448
+
449
+ ### Model Sources
450
+
451
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
452
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
453
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
454
+
455
+ ### Full Model Architecture
456
+
457
+ ```
458
+ SentenceTransformer(
459
+ (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: NewModel
460
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
461
+ (2): Normalize()
462
+ )
463
+ ```
464
+
465
+ ## Usage
466
+
467
+ ### Direct Usage (Sentence Transformers)
468
+
469
+ First install the Sentence Transformers library:
470
+
471
+ ```bash
472
+ pip install -U sentence-transformers
473
+ ```
474
+
475
+ Then you can load this model and run inference.
476
+ ```python
477
+ from sentence_transformers import SentenceTransformer
478
+
479
+ # Download from the 🤗 Hub
480
+ model = SentenceTransformer("minhdang/gte-base-law-matryoshka")
481
+ # Run inference
482
+ sentences = [
483
+ "['Mức giảm thời hạn chấp hành án phạt tù\\n1. Phạm nhân bị phạt tù chung thân, lần đầu được giảm xuống ba mươi năm.\\n2. Phạm nhân bị phạt tù từ ba mươi năm trở xuống, mỗi lần có thể được giảm từ một tháng đến ba năm. Trường hợp được giảm ba năm phải là những phạm nhân chấp hành nghiêm chỉnh Nội quy trại giam, trại tạm giam, nhà tạm giữ và lập công hoặc có thành tích đặc biệt xuất sắc trong lao động, học tập cải tạo.\\n3. Mỗi năm một phạm nhân chỉ được xét giảm thời hạn chấp hành án phạt tù một lần, khoảng cách giữa hai lần xét giảm ít nhất là một năm. Trư���ng hợp đã được giảm mà thời hạn tù còn lại không đủ một năm thì năm tiếp theo có thể đề nghị xét giảm sớm hơn trước một đợt, nhưng vẫn phải bảo đảm mỗi năm chỉ được xét giảm một lần.\\nTrường hợp sau khi đã được giảm thời hạn mà có lý do đặc biệt đáng được khoan hồng như lập công hoặc mắc bệnh hiểm nghèo thì có thể được xét giảm thêm nhưng không được quá hai lần trong một năm.\\n4. Mỗi phạm nhân có thể được giảm thời hạn chấp hành án phạt tù nhiều lần, nhưng phải bảo đảm thời hạn thực tế chấp hành án phạt tù được một phần hai mức hình phạt tù có thời hạn đã tuyên hoặc hai mươi năm đối với hình phạt tù chung thân.']",
484
+ 'Mỗi năm thì phạm nhân được xét giảm thời hạn chấp hành án phạt tù bao nhiêu lần?',
485
+ 'Chấp hành viên có bắt buộc ký tên vào văn bản thỏa thuận thi hành án dân sự của đương sự hay không?',
486
+ ]
487
+ embeddings = model.encode(sentences)
488
+ print(embeddings.shape)
489
+ # [3, 768]
490
+
491
+ # Get the similarity scores for the embeddings
492
+ similarities = model.similarity(embeddings, embeddings)
493
+ print(similarities.shape)
494
+ # [3, 3]
495
+ ```
496
+
497
+ <!--
498
+ ### Direct Usage (Transformers)
499
+
500
+ <details><summary>Click to see the direct usage in Transformers</summary>
501
+
502
+ </details>
503
+ -->
504
+
505
+ <!--
506
+ ### Downstream Usage (Sentence Transformers)
507
+
508
+ You can finetune this model on your own dataset.
509
+
510
+ <details><summary>Click to expand</summary>
511
+
512
+ </details>
513
+ -->
514
+
515
+ <!--
516
+ ### Out-of-Scope Use
517
+
518
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
519
+ -->
520
+
521
+ ## Evaluation
522
+
523
+ ### Metrics
524
+
525
+ #### Information Retrieval
526
+ * Dataset: `dim_768`
527
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
528
+
529
+ | Metric | Value |
530
+ |:--------------------|:-----------|
531
+ | cosine_accuracy@1 | 0.2956 |
532
+ | cosine_accuracy@3 | 0.4892 |
533
+ | cosine_accuracy@5 | 0.5748 |
534
+ | cosine_accuracy@10 | 0.676 |
535
+ | cosine_precision@1 | 0.2956 |
536
+ | cosine_precision@3 | 0.1631 |
537
+ | cosine_precision@5 | 0.115 |
538
+ | cosine_precision@10 | 0.0676 |
539
+ | cosine_recall@1 | 0.2956 |
540
+ | cosine_recall@3 | 0.4892 |
541
+ | cosine_recall@5 | 0.5748 |
542
+ | cosine_recall@10 | 0.676 |
543
+ | cosine_ndcg@10 | 0.4772 |
544
+ | cosine_mrr@10 | 0.4146 |
545
+ | **cosine_map@100** | **0.4241** |
546
+
547
+ #### Information Retrieval
548
+ * Dataset: `dim_512`
549
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
550
+
551
+ | Metric | Value |
552
+ |:--------------------|:-----------|
553
+ | cosine_accuracy@1 | 0.2945 |
554
+ | cosine_accuracy@3 | 0.4896 |
555
+ | cosine_accuracy@5 | 0.5725 |
556
+ | cosine_accuracy@10 | 0.6714 |
557
+ | cosine_precision@1 | 0.2945 |
558
+ | cosine_precision@3 | 0.1632 |
559
+ | cosine_precision@5 | 0.1145 |
560
+ | cosine_precision@10 | 0.0671 |
561
+ | cosine_recall@1 | 0.2945 |
562
+ | cosine_recall@3 | 0.4896 |
563
+ | cosine_recall@5 | 0.5725 |
564
+ | cosine_recall@10 | 0.6714 |
565
+ | cosine_ndcg@10 | 0.4744 |
566
+ | cosine_mrr@10 | 0.4122 |
567
+ | **cosine_map@100** | **0.4218** |
568
+
569
+ #### Information Retrieval
570
+ * Dataset: `dim_256`
571
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
572
+
573
+ | Metric | Value |
574
+ |:--------------------|:-----------|
575
+ | cosine_accuracy@1 | 0.2851 |
576
+ | cosine_accuracy@3 | 0.4783 |
577
+ | cosine_accuracy@5 | 0.5605 |
578
+ | cosine_accuracy@10 | 0.6629 |
579
+ | cosine_precision@1 | 0.2851 |
580
+ | cosine_precision@3 | 0.1594 |
581
+ | cosine_precision@5 | 0.1121 |
582
+ | cosine_precision@10 | 0.0663 |
583
+ | cosine_recall@1 | 0.2851 |
584
+ | cosine_recall@3 | 0.4783 |
585
+ | cosine_recall@5 | 0.5605 |
586
+ | cosine_recall@10 | 0.6629 |
587
+ | cosine_ndcg@10 | 0.465 |
588
+ | cosine_mrr@10 | 0.4027 |
589
+ | **cosine_map@100** | **0.4122** |
590
+
591
+ #### Information Retrieval
592
+ * Dataset: `dim_128`
593
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
594
+
595
+ | Metric | Value |
596
+ |:--------------------|:-----------|
597
+ | cosine_accuracy@1 | 0.2736 |
598
+ | cosine_accuracy@3 | 0.4611 |
599
+ | cosine_accuracy@5 | 0.5435 |
600
+ | cosine_accuracy@10 | 0.64 |
601
+ | cosine_precision@1 | 0.2736 |
602
+ | cosine_precision@3 | 0.1537 |
603
+ | cosine_precision@5 | 0.1087 |
604
+ | cosine_precision@10 | 0.064 |
605
+ | cosine_recall@1 | 0.2736 |
606
+ | cosine_recall@3 | 0.4611 |
607
+ | cosine_recall@5 | 0.5435 |
608
+ | cosine_recall@10 | 0.64 |
609
+ | cosine_ndcg@10 | 0.4483 |
610
+ | cosine_mrr@10 | 0.3879 |
611
+ | **cosine_map@100** | **0.3976** |
612
+
613
+ #### Information Retrieval
614
+ * Dataset: `dim_64`
615
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
616
+
617
+ | Metric | Value |
618
+ |:--------------------|:-----------|
619
+ | cosine_accuracy@1 | 0.2466 |
620
+ | cosine_accuracy@3 | 0.4201 |
621
+ | cosine_accuracy@5 | 0.4989 |
622
+ | cosine_accuracy@10 | 0.595 |
623
+ | cosine_precision@1 | 0.2466 |
624
+ | cosine_precision@3 | 0.14 |
625
+ | cosine_precision@5 | 0.0998 |
626
+ | cosine_precision@10 | 0.0595 |
627
+ | cosine_recall@1 | 0.2466 |
628
+ | cosine_recall@3 | 0.4201 |
629
+ | cosine_recall@5 | 0.4989 |
630
+ | cosine_recall@10 | 0.595 |
631
+ | cosine_ndcg@10 | 0.4117 |
632
+ | cosine_mrr@10 | 0.3541 |
633
+ | **cosine_map@100** | **0.3637** |
634
+
635
+ <!--
636
+ ## Bias, Risks and Limitations
637
+
638
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
639
+ -->
640
+
641
+ <!--
642
+ ### Recommendations
643
+
644
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
645
+ -->
646
+
647
+ ## Training Details
648
+
649
+ ### Training Dataset
650
+
651
+ #### json
652
+
653
+ * Dataset: json
654
+ * Size: 107,510 training samples
655
+ * Columns: <code>positive</code> and <code>anchor</code>
656
+ * Approximate statistics based on the first 1000 samples:
657
+ | | positive | anchor |
658
+ |:--------|:--------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
659
+ | type | string | string |
660
+ | details | <ul><li>min: 25 tokens</li><li>mean: 282.01 tokens</li><li>max: 1024 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 23.95 tokens</li><li>max: 49 tokens</li></ul> |
661
+ * Samples:
662
+ | positive | anchor |
663
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------|
664
+ | <code>['Đối tượng liên kết giáo dục\nCơ sở giáo dục mầm non tư thục, cơ sở giáo dục phổ thông tư thục của Việt Nam và cơ sở giáo dục hoạt động hợp pháp ở nước ngoài, được cơ quan, tổ chức kiểm định chất lượng giáo dục hoặc cơ quan có thẩm quyền của nước ngoài công nhận về chất lượng giáo dục.']</code> | <code>Cơ sở giáo dục phổ thông tư thục của Việt Nam có phải là đối tượng liên kết giáo dục với nước ngoài không?</code> |
665
+ | <code>['Quyết định chủ trương đầu tư dự án PPP\n1. Nội dung quyết định chủ trương đầu tư dự án PPP thực hiện theo quy định tại Điều 17 của Luật PPP và Mẫu số 03 Phụ lục II kèm theo Nghị định này.'<br> 'Nội dung quyết định chủ trương đầu tư dự án PPP\n1. Quyết định chủ trương đầu tư bao gồm các nội dung chủ yếu sau đây:\na) Tên dự án;\nb) Tên cơ quan có thẩm quyền;\nc) Mục tiêu; dự kiến quy mô, địa điểm, thời gian thực hiện dự án, nhu cầu sử dụng đất và tài nguyên khác;\nd) Dự kiến loại hợp đồng dự án PPP;\nđ) Sơ bộ tổng mức đầu tư; sơ bộ phương án tài chính: cơ cấu nguồn vốn trong dự án, dự kiến khung giá, phí sản phẩm, dịch vụ công đối với dự án áp dụng cơ chế thu phí trực tiếp từ người sử dụng;\ne) Cơ chế bảo đảm đầu tư, cơ chế chia sẻ phần giảm doanh thu.\n2. Đối với dự án ứng dụng công nghệ cao, ứng dụng công nghệ mới ngoài quy định tại khoản 1 Điều này, nội dung quyết định chủ trương đầu tư còn bao gồm tên bên mời thầu, hình thức lựa chọn nhà đầu tư, thời gian tổ chức lựa chọn nhà đầu tư.']</code> | <code>Quyết định chủ trương đầu tư dự án PPP có những nội dung gì?</code> |
666
+ | <code>['Họa sĩ hạng III - Mã số: V.10.08.27\n...\n4. Yêu cầu đối với viên chức dự thi hoặc xét thăng hạng chức danh nghề nghiệp họa sĩ hạng III:\nCó thời gian giữ chức danh nghề nghiệp họa sĩ hạng IV hoặc tương đương từ đủ 02 năm trở lên (không kể thời gian tập sự, thử việc) đối với trình độ cao đẳng hoặc từ đủ 03 năm trở lên (không kể thời gian tập sự, thử việc) đối với trình độ trung cấp. Trường hợp có thời gian tương đương thì phải có ít nhất 01 năm (đủ 12 tháng) đang giữ chức danh họa sĩ hạng IV tính đến ngày hết thời hạn nộp hồ sơ đăng ký dự thi hoặc xét thăng hạng.']</code> | <code>Viên chức xét thăng hạng chức danh nghề nghiệp họa sĩ hạng 3 cần có thời gian giữ chức danh nghề nghiệp họa sĩ hạng 4 trong bao lâu?</code> |
667
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
668
+ ```json
669
+ {
670
+ "loss": "MultipleNegativesRankingLoss",
671
+ "matryoshka_dims": [
672
+ 768,
673
+ 512,
674
+ 256,
675
+ 128,
676
+ 64
677
+ ],
678
+ "matryoshka_weights": [
679
+ 1,
680
+ 1,
681
+ 1,
682
+ 1,
683
+ 1
684
+ ],
685
+ "n_dims_per_step": -1
686
+ }
687
+ ```
688
+
689
+ ### Evaluation Dataset
690
+
691
+ #### json
692
+
693
+ * Dataset: json
694
+ * Size: 11,946 evaluation samples
695
+ * Columns: <code>positive</code> and <code>anchor</code>
696
+ * Approximate statistics based on the first 1000 samples:
697
+ | | positive | anchor |
698
+ |:--------|:--------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
699
+ | type | string | string |
700
+ | details | <ul><li>min: 25 tokens</li><li>mean: 291.08 tokens</li><li>max: 1024 tokens</li></ul> | <ul><li>min: 7 tokens</li><li>mean: 24.16 tokens</li><li>max: 49 tokens</li></ul> |
701
+ * Samples:
702
+ | positive | anchor |
703
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------|
704
+ | <code>['“Điều 9. Sử dụng đất trồng lúa vào mục đích khác không được cơ quan nhà nước có thẩm quyền cho phép theo quy định tại các điểm a và d khoản 1 Điều 57 của Luật đất đai\n1. Chuyển đất trồng lúa sang đất trồng cây lâu năm, đất trồng rừng (trừ trường hợp quy định tại khoản 7 Điều 14 của Nghị định số 43/2014/NĐ-CP được sửa đổi, bổ sung tại khoản 11 Điều 2 của Nghị định số 01/2017/NĐ-CP) thì hình thức và mức xử phạt như sau:\na) Phạt tiền từ 2.000.000 đồng đến 5.000.000 đồng nếu diện tích đất chuyển mục đích trái phép dưới 0,5 héc ta;\nb) Phạt tiền từ 5.000.000 đồng đến 10.000.000 đồng nếu diện tích đất chuyển mục đích trái phép từ 0,5 héc ta đến dưới 01 héc ta;\nc) Phạt tiền từ 10.000.000 đồng đến 20.000.000 đồng nếu diện tích đất chuyển mục đích trái phép từ 01 héc ta đến dưới 03 héc ta;\nd) Phạt tiền từ 20.000.000 đồng đến 50.000.000 đồng nếu diện tích đất chuyển mục đích trái phép từ 03 héc ta trở lên.”']</code> | <code>Tự ý trồng cây lâu năm trên đất lúa bị xử phạt như thế nào?</code> |
705
+ | <code>['"3. Người làm chứng có quyền:\na) Được thông báo, giải thích quyền và nghĩa vụ quy định tại Điều này;\nb) Yêu cầu cơ quan triệu tập bảo vệ tính mạng, sức khoẻ, danh dự, nhân phẩm, tài sản và quyền, lợi ích hợp pháp khác của mình, người thân thích của mình khi bị đe dọa;\nc) Khiếu nại quyết định, hành vi tố tụng của cơ quan, người có thẩm quyền tiến hành tố tụng liên quan đến việc mình tham gia làm chứng;\nd) Được cơ quan triệu tập thanh toán chi phí đi lại và những chi phí khác theo quy định của pháp luật."']</code> | <code>Quyền và nghĩa vụ của người làm chứng?</code> |
706
+ | <code>['Quy trình điều chuyển tài sản\n1. Hồ sơ đề nghị điều chuyển tài sản:\na) Văn bản đề nghị điều chuyển tài sản của đơn vị được giao quản lý, sử dụng tài sản: 01 bản chính;\nb) Văn bản đề nghị được tiếp nhận tài sản của cơ quan, tổ chức, đơn vị: 01 bản chính;\nc) Tờ trình về việc điều chuyển, tiếp nhận tài sản của Vụ Tài chính - Kế toán (trường hợp việc quyết định điều chuyển tài sản thuộc thẩm quyền của Phó Thống đốc phụ trách tài chính - kế toán): 01 bản chính;\nd) Danh mục tài sản đề nghị điều chuyển (chủng loại, mã tài sản, số lượng, tình trạng; năm đưa vào sử dụng, nguyên giá, giá trị còn lại theo sổ kế toán; mục đích sử dụng hiện tại và mục đích sử dụng dự kiến sau khi điều chuyển trong trường hợp việc điều chuyển gắn với việc chuyển đổi công năng sử dụng tài sản; lý do điều chuyển): 01 bản chính;\nđ) Các hồ sơ khác có liên quan đến đề nghị điều chuyển tài sản (nếu có): 01 bản sao.\n2. Khi điều chuyển, đơn vị giao và đơn vị nhận tài sản phải thành lập Hội đồng giao nhận tài sản, gồm đại diện của hai bên, chủ tịch hội đồng là đại diện lãnh đạo bên giao. Hội đồng có nhiệm vụ xác định số lượng, giá trị (nguyên giá, giá trị đã khấu hao, giá trị còn lại), hiện trạng của tài sản bàn giao, các hồ sơ, chứng từ có liên quan và lập "Biên bản bàn giao, tiếp nhận tài sản" theo Mẫu số 01/TSC-BBGN ban hành kèm theo Nghị định số 151/2017/NĐ-CP ngày 26/12/2017 quy định chi tiết một số điều của Luật Quản lý, sử dụng tài sản công. "Biên bản bàn giao, tiếp nhận tài sản" được lập thành 3 bản, mỗi bên lưu một bản và gửi một bản về Ngân hàng Nhà nước (Vụ Tài chính - Kế toán).\n...']</code> | <code>Hồ sơ đề nghị điều chuyển tài sản của Ngân hàng Nhà nước gồm những nội dung gì?</code> |
707
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
708
+ ```json
709
+ {
710
+ "loss": "MultipleNegativesRankingLoss",
711
+ "matryoshka_dims": [
712
+ 768,
713
+ 512,
714
+ 256,
715
+ 128,
716
+ 64
717
+ ],
718
+ "matryoshka_weights": [
719
+ 1,
720
+ 1,
721
+ 1,
722
+ 1,
723
+ 1
724
+ ],
725
+ "n_dims_per_step": -1
726
+ }
727
+ ```
728
+
729
+ ### Training Hyperparameters
730
+ #### Non-Default Hyperparameters
731
+
732
+ - `eval_strategy`: epoch
733
+ - `per_device_train_batch_size`: 128
734
+ - `per_device_eval_batch_size`: 128
735
+ - `gradient_accumulation_steps`: 32
736
+ - `learning_rate`: 2e-05
737
+ - `num_train_epochs`: 4
738
+ - `lr_scheduler_type`: cosine
739
+ - `warmup_ratio`: 0.1
740
+ - `bf16`: True
741
+ - `load_best_model_at_end`: True
742
+ - `optim`: adamw_torch_fused
743
+ - `batch_sampler`: no_duplicates
744
+
745
+ #### All Hyperparameters
746
+ <details><summary>Click to expand</summary>
747
+
748
+ - `overwrite_output_dir`: False
749
+ - `do_predict`: False
750
+ - `eval_strategy`: epoch
751
+ - `prediction_loss_only`: True
752
+ - `per_device_train_batch_size`: 128
753
+ - `per_device_eval_batch_size`: 128
754
+ - `per_gpu_train_batch_size`: None
755
+ - `per_gpu_eval_batch_size`: None
756
+ - `gradient_accumulation_steps`: 32
757
+ - `eval_accumulation_steps`: None
758
+ - `torch_empty_cache_steps`: None
759
+ - `learning_rate`: 2e-05
760
+ - `weight_decay`: 0.0
761
+ - `adam_beta1`: 0.9
762
+ - `adam_beta2`: 0.999
763
+ - `adam_epsilon`: 1e-08
764
+ - `max_grad_norm`: 1.0
765
+ - `num_train_epochs`: 4
766
+ - `max_steps`: -1
767
+ - `lr_scheduler_type`: cosine
768
+ - `lr_scheduler_kwargs`: {}
769
+ - `warmup_ratio`: 0.1
770
+ - `warmup_steps`: 0
771
+ - `log_level`: passive
772
+ - `log_level_replica`: warning
773
+ - `log_on_each_node`: True
774
+ - `logging_nan_inf_filter`: True
775
+ - `save_safetensors`: True
776
+ - `save_on_each_node`: False
777
+ - `save_only_model`: False
778
+ - `restore_callback_states_from_checkpoint`: False
779
+ - `no_cuda`: False
780
+ - `use_cpu`: False
781
+ - `use_mps_device`: False
782
+ - `seed`: 42
783
+ - `data_seed`: None
784
+ - `jit_mode_eval`: False
785
+ - `use_ipex`: False
786
+ - `bf16`: True
787
+ - `fp16`: False
788
+ - `fp16_opt_level`: O1
789
+ - `half_precision_backend`: auto
790
+ - `bf16_full_eval`: False
791
+ - `fp16_full_eval`: False
792
+ - `tf32`: None
793
+ - `local_rank`: 0
794
+ - `ddp_backend`: None
795
+ - `tpu_num_cores`: None
796
+ - `tpu_metrics_debug`: False
797
+ - `debug`: []
798
+ - `dataloader_drop_last`: False
799
+ - `dataloader_num_workers`: 0
800
+ - `dataloader_prefetch_factor`: None
801
+ - `past_index`: -1
802
+ - `disable_tqdm`: False
803
+ - `remove_unused_columns`: True
804
+ - `label_names`: None
805
+ - `load_best_model_at_end`: True
806
+ - `ignore_data_skip`: False
807
+ - `fsdp`: []
808
+ - `fsdp_min_num_params`: 0
809
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
810
+ - `fsdp_transformer_layer_cls_to_wrap`: None
811
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
812
+ - `deepspeed`: None
813
+ - `label_smoothing_factor`: 0.0
814
+ - `optim`: adamw_torch_fused
815
+ - `optim_args`: None
816
+ - `adafactor`: False
817
+ - `group_by_length`: False
818
+ - `length_column_name`: length
819
+ - `ddp_find_unused_parameters`: None
820
+ - `ddp_bucket_cap_mb`: None
821
+ - `ddp_broadcast_buffers`: False
822
+ - `dataloader_pin_memory`: True
823
+ - `dataloader_persistent_workers`: False
824
+ - `skip_memory_metrics`: True
825
+ - `use_legacy_prediction_loop`: False
826
+ - `push_to_hub`: False
827
+ - `resume_from_checkpoint`: None
828
+ - `hub_model_id`: None
829
+ - `hub_strategy`: every_save
830
+ - `hub_private_repo`: False
831
+ - `hub_always_push`: False
832
+ - `gradient_checkpointing`: False
833
+ - `gradient_checkpointing_kwargs`: None
834
+ - `include_inputs_for_metrics`: False
835
+ - `eval_do_concat_batches`: True
836
+ - `fp16_backend`: auto
837
+ - `push_to_hub_model_id`: None
838
+ - `push_to_hub_organization`: None
839
+ - `mp_parameters`:
840
+ - `auto_find_batch_size`: False
841
+ - `full_determinism`: False
842
+ - `torchdynamo`: None
843
+ - `ray_scope`: last
844
+ - `ddp_timeout`: 1800
845
+ - `torch_compile`: False
846
+ - `torch_compile_backend`: None
847
+ - `torch_compile_mode`: None
848
+ - `dispatch_batches`: None
849
+ - `split_batches`: None
850
+ - `include_tokens_per_second`: False
851
+ - `include_num_input_tokens_seen`: False
852
+ - `neftune_noise_alpha`: None
853
+ - `optim_target_modules`: None
854
+ - `batch_eval_metrics`: False
855
+ - `eval_on_start`: False
856
+ - `use_liger_kernel`: False
857
+ - `eval_use_gather_object`: False
858
+ - `batch_sampler`: no_duplicates
859
+ - `multi_dataset_batch_sampler`: proportional
860
+
861
+ </details>
862
+
863
+ ### Training Logs
864
+ | Epoch | Step | Training Loss | loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
865
+ |:----------:|:------:|:-------------:|:----------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
866
+ | 0.3810 | 10 | 4.0758 | - | - | - | - | - | - |
867
+ | 0.7619 | 20 | 2.6578 | - | - | - | - | - | - |
868
+ | **0.9905** | **26** | **-** | **1.6008** | **0.3976** | **0.4122** | **0.4218** | **0.3637** | **0.4241** |
869
+ | 1.1429 | 30 | 1.643 | - | - | - | - | - | - |
870
+ | 1.5238 | 40 | 1.2561 | - | - | - | - | - | - |
871
+ | 1.9048 | 50 | 1.1152 | - | - | - | - | - | - |
872
+ | 1.9810 | 52 | - | 1.0635 | 0.3976 | 0.4122 | 0.4218 | 0.3637 | 0.4241 |
873
+ | 2.2857 | 60 | 0.9883 | - | - | - | - | - | - |
874
+ | 2.6667 | 70 | 0.991 | - | - | - | - | - | - |
875
+ | 2.9714 | 78 | - | 0.9924 | 0.3976 | 0.4122 | 0.4218 | 0.3637 | 0.4241 |
876
+ | 3.0476 | 80 | 0.9552 | - | - | - | - | - | - |
877
+ | 3.4286 | 90 | 0.934 | - | - | - | - | - | - |
878
+ | 3.8095 | 100 | 0.9597 | - | - | - | - | - | - |
879
+ | 3.9619 | 104 | - | 0.9883 | 0.3976 | 0.4122 | 0.4218 | 0.3637 | 0.4241 |
880
+
881
+ * The bold row denotes the saved checkpoint.
882
+
883
+ ### Framework Versions
884
+ - Python: 3.10.12
885
+ - Sentence Transformers: 3.1.1
886
+ - Transformers: 4.45.2
887
+ - PyTorch: 2.3.1+cu121
888
+ - Accelerate: 1.0.1
889
+ - Datasets: 2.19.1
890
+ - Tokenizers: 0.20.1
891
+
892
+ ## Citation
893
+
894
+ ### BibTeX
895
+
896
+ #### Sentence Transformers
897
+ ```bibtex
898
+ @inproceedings{reimers-2019-sentence-bert,
899
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
900
+ author = "Reimers, Nils and Gurevych, Iryna",
901
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
902
+ month = "11",
903
+ year = "2019",
904
+ publisher = "Association for Computational Linguistics",
905
+ url = "https://arxiv.org/abs/1908.10084",
906
+ }
907
+ ```
908
+
909
+ #### MatryoshkaLoss
910
+ ```bibtex
911
+ @misc{kusupati2024matryoshka,
912
+ title={Matryoshka Representation Learning},
913
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
914
+ year={2024},
915
+ eprint={2205.13147},
916
+ archivePrefix={arXiv},
917
+ primaryClass={cs.LG}
918
+ }
919
+ ```
920
+
921
+ #### MultipleNegativesRankingLoss
922
+ ```bibtex
923
+ @misc{henderson2017efficient,
924
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
925
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
926
+ year={2017},
927
+ eprint={1705.00652},
928
+ archivePrefix={arXiv},
929
+ primaryClass={cs.CL}
930
+ }
931
+ ```
932
+
933
+ <!--
934
+ ## Glossary
935
+
936
+ *Clearly define terms in order to be accessible across audiences.*
937
+ -->
938
+
939
+ <!--
940
+ ## Model Card Authors
941
+
942
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
943
+ -->
944
+
945
+ <!--
946
+ ## Model Card Contact
947
+
948
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
949
+ -->
config.json ADDED
@@ -0,0 +1,50 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "Alibaba-NLP/gte-multilingual-base",
3
+ "architectures": [
4
+ "NewModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.0,
7
+ "auto_map": {
8
+ "AutoConfig": "Alibaba-NLP/new-impl--configuration.NewConfig",
9
+ "AutoModel": "Alibaba-NLP/new-impl--modeling.NewModel",
10
+ "AutoModelForMaskedLM": "Alibaba-NLP/new-impl--modeling.NewForMaskedLM",
11
+ "AutoModelForMultipleChoice": "Alibaba-NLP/new-impl--modeling.NewForMultipleChoice",
12
+ "AutoModelForQuestionAnswering": "Alibaba-NLP/new-impl--modeling.NewForQuestionAnswering",
13
+ "AutoModelForSequenceClassification": "Alibaba-NLP/new-impl--modeling.NewForSequenceClassification",
14
+ "AutoModelForTokenClassification": "Alibaba-NLP/new-impl--modeling.NewForTokenClassification"
15
+ },
16
+ "classifier_dropout": 0.0,
17
+ "hidden_act": "gelu",
18
+ "hidden_dropout_prob": 0.1,
19
+ "hidden_size": 768,
20
+ "id2label": {
21
+ "0": "LABEL_0"
22
+ },
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 3072,
25
+ "label2id": {
26
+ "LABEL_0": 0
27
+ },
28
+ "layer_norm_eps": 1e-12,
29
+ "layer_norm_type": "layer_norm",
30
+ "logn_attention_clip1": false,
31
+ "logn_attention_scale": false,
32
+ "max_position_embeddings": 8192,
33
+ "model_type": "new",
34
+ "num_attention_heads": 12,
35
+ "num_hidden_layers": 12,
36
+ "pack_qkv": true,
37
+ "pad_token_id": 1,
38
+ "position_embedding_type": "rope",
39
+ "rope_scaling": {
40
+ "factor": 8.0,
41
+ "type": "ntk"
42
+ },
43
+ "rope_theta": 20000,
44
+ "torch_dtype": "bfloat16",
45
+ "transformers_version": "4.45.2",
46
+ "type_vocab_size": 1,
47
+ "unpad_inputs": false,
48
+ "use_memory_efficient_attention": false,
49
+ "vocab_size": 250048
50
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.1",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2400b74c2dde50ab46a62a45d5a4027855fc5940b314fa67ac3ac5215e31e7b3
3
+ size 610751248
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 1024,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e802fe5337779428818439760a1e6161ed36ceed72d4ebcbda9c139a2108fc99
3
+ size 17082988
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 8192,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "XLMRobertaTokenizer",
53
+ "unk_token": "<unk>"
54
+ }