anhtuansh's picture
Add new SentenceTransformer model
dadde70 verified
---
base_model: Alibaba-NLP/gte-multilingual-base
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:8259
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: 'theo quy_định tại điều 35 nghị_định số 201 / 2013 / nđ - cp thì
thời_hạn giải_quyết thủ_tục hành_chính về cấp giấy_phép thăm_dò , khai_thác nước
dưới đất như sau : 1 . tiếp_nhận và kiểm_tra hồ_sơ : trong thời_hạn mười ( 10
) ngày làm_việc , kể từ ngày nhận hồ_sơ , cơ_quan tiếp_nhận hồ_sơ có trách_nhiệm
xem_xét , kiểm_tra hồ_sơ . trường_hợp hồ_sơ không hợp_lệ , cơ_quan tiếp_nhận hồ_sơ
thông_báo cho tổ_chức , cá_nhân đề_nghị cấp phép để bổ_sung , hoàn_thiện hồ_sơ
theo quy_định . trường_hợp hồ_sơ sau khi đã bổ_sung mà vẫn không đáp_ứng yêu_cầu
theo quy_định thì cơ_quan tiếp_nhận hồ_sơ trả lại hồ_sơ và thông_báo rõ lý_do
cho tổ_chức , cá_nhân đề_nghị cấp phép . 2 . thẩm_định_đề_án , báo_cáo thăm_dò
, khai_thác , sử_dụng tài_nguyên nước , xả nước_thải vào nguồn nước trong hồ_sơ
đề_nghị cấp phép ( sau đây gọi chung là đề_án , báo_cáo ) : a ) trong thời_hạn
ba_mươi ( 30 ) ngày làm_việc , kể từ ngày nhận đủ hồ_sơ hợp_lệ theo quy_định tại
khoản 1 điều này , cơ_quan tiếp_nhận hồ_sơ có trách_nhiệm thẩm_định_đề_án , báo_cáo
; nếu cần_thiết thì kiểm_tra thực_tế hiện_trường , lập hội_đồng thẩm_định_đề_án
, báo_cáo . trường_hợp đủ điều_kiện cấp phép , cơ_quan tiếp_nhận hồ_sơ trình cơ_quan
có thẩm_quyền cấp giấy_phép ; trường_hợp không đủ điều_kiện để cấp phép thì trả
lại hồ_sơ cho tổ_chức , cá_nhân đề_nghị cấp phép và thông_báo lý_do không cấp
phép ; b ) trường_hợp phải bổ_sung , chỉnh_sửa để hoàn_thiện đề_án , báo_cáo thì
cơ_quan tiếp_nhận hồ_sơ gửi văn_bản thông_báo cho tổ_chức , cá_nhân đề_nghị cấp
phép nêu rõ những nội_dung cần bổ_sung , hoàn_thiện đề_án , báo_cáo . thời_gian
bổ_sung , hoàn_thiện hoặc lập lại đề_án , báo_cáo không tính vào thời_gian thẩm_định_đề_án
, báo_cáo . thời_gian thẩm_định sau khi đề_án , báo_cáo được bổ_sung hoàn_chỉnh
là hai mươi ( 20 ) ngày làm_việc ; c ) trường_hợp phải lập lại đề_án , báo_cáo
, cơ_quan tiếp_nhận hồ_sơ gửi văn_bản thông_báo cho tổ_chức , cá_nhân đề_nghị
cấp phép nêu rõ những nội_dung đề_án , báo_cáo chưa đạt yêu_cầu , phải làm lại
và trả lại hồ_sơ đề_nghị cấp phép . 3 . trả kết_quả giải_quyết hồ_sơ_cấp phéptrong
thời_hạn năm ( 05 ) ngày làm_việc , kể từ ngày nhận được giấy_phép của cơ_quan
có thẩm_quyền , cơ_quan tiếp_nhận hồ_sơ thông_báo cho tổ_chức , cá_nhân đề_nghị
cấp phép để thực_hiện nghĩa_vụ tài_chính và nhận giấy_phép .'
sentences:
- ai thẩm_quyền giải_quyết tố_cáo hành_vi vi_phạm_pháp_luật trong thực_hiện nhiệm_vụ
, công_vụ của cán_bộ , công_chức , viên_chức ?
- thời_hạn giải_quyết thủ_tục hành_chính về cấp giấy_phép thăm_dò , giấy_phép khai_thác
nước dưới đất ?
- tôi có_thể đăng_ký ngành , nghề kinh_doanh không trong hệ_thống ngành kinh_tế
việt_nam không ?
- source_sentence: khoản 2 điều 2 thông_tư 30 quy_định , đoàn khám bệnh , chữa bệnh_nhân_đạo
một nhóm nhân_viên y_tế trong nước , nước_ngoài do cá_nhân , tổ_chức trong
nước , nước_ngoài tổ_chức để khám bệnh , chữa bệnh_nhân_đạo cho nhân_dân .
sentences:
- tàu_thủy lưu_trú du_lịch tiêu_chí xếp_hạng bắt_buộc không ?
- tôi muốn xin cấp lại sổ thuyền_viên thì cần những hồ_sơ ?
- đoàn khám bệnh , chữa bệnh_nhân_đạo ?
- source_sentence: 'thành_phần hồ_sơ thực_hiện tthc sửa_đổi , bổ_sung / cấp lại giấy
chứng_nhận lưu_hành tự_do ( cfs ) đối_với hàng_hóa xuất_khẩu thuộc phạm_vi quản_lý
của bộ nông_nghiệp và phát_triển nông_thôn ( quy_định tại quyết_định số 1312 /
qđ - bnn - qlcl ngày 22 / 4 / 2019 về việc công_bố thủ_tục hành_chính được thay_thế
, tthc bị bãi_bỏ lĩnh_vực quản_lý chất_lượng nông_lâm_sản và thủy_sản thuộc phạm_vi
chức_năng quản_lý của bộ nông_nghiệp và phát_triển nông_thôn ) : - văn_bản đề_nghị
sửa_đổi , bổ_sung / cấp lại cfs của thương_nhân : 01 bản_chính . - các giấy_tờ
liên_quan đến việc sửa_đổi , bổ_sung / cấp lại cfs.'
sentences:
- kính gửi cục quản_lý chất_lượng nông_lâm_sản thuỷ_sản , công_ty tôi đã được
quý cục cấp giấy chứng_nhận lưu_hành tự_do cfs , nay tôi muốn sửa_đổi một_số thông_tin
trên giấy cfs , vậy hồ_sơ đề_nghị sửa_đổi cần những ?
- thời_gian để được cấp quyết_định chỉ_định tổ_chức đánh_giá sự phù_hợp lĩnh_vực
sản_phẩm , hàng_hóa_vật_liệu xây_dựng đối_với trường_hợp thay_đổi , bổ_sung phạm_vi
, lĩnh_vực được chỉ_định
- hồ_sơ đăng_ký dự_tuyển lao_động của người lao_động gồm những ?
- source_sentence: 'hồ_sơ đề_nghị gia_hạn giấy_phép cung_cấp dịch_vụ trò_chơi điện_tử
g1 trên mạng bao_gồm : - đơn đề_nghị gia_hạn giấy_phép bao_gồm : tên , địa_chỉ
của doanh_nghiệp ; số , nơi cấp , ngày cấp giấy chứng_nhận đăng_ký doanh_nghiệp
; số , ngày cấp , ngày hiệu_lực của giấy_phép đã được cấp ; lý_do đề_nghị gia_hạn
giấy_phép ; cam_kết của doanh_nghiệp về các nội_dung kê_khai trong đơn đề_nghị
.'
sentences:
- thành_phần hồ_sơ
- nhà đầu_tư phải nộp bao_nhiêu bộ hồ_sơ đề_nghị thủ_tướng chính_phủ cho phép đầu_tư
gián_tiếp ra nước_ngoài đối_với các trường_hợp đầu_tư khác quy_định tại điều 9
nghị_định 135 / 2015 / - cp ?
- phần vốn của thành_viên chưa góp vốn trong thời_hạn 90 ngày , kể từ ngày được
cấp giấy chứng_nhận đăng_ký doanh_nghiệp trong công_ty tnhh hai thành_viên trở
lên được xử_lý như thế_nào ? trường_hợp người nhận mua lại phần vốn chưa góp
này thì công_ty phải đăng_ký thay_đổi thành_viên với cơ_quan đăng_ký kinh_doanh
không ? hồ_sơ , thủ_tục được quy_định như thế_nào ?
- source_sentence: quản_lý nhập_khẩu hàng_hóa bị điều_tra , phục_vụ công_tác điều_tra
, áp_dụng biện_pháp phòng_vệ thương_mại .
sentences:
- mục_đích của thủ_tục khai_báo ?
- đơn_vị chúng_tôi đã được cấp chứng_chỉ năng_lực hoạt_động xây_dựng nhưng hiện_nay
chúng_tôi thay_đổi người đại_diện pháp_luật của đơn_vị . vậy chúng_tôi phải
làm thủ_tục nào để thay_đổi người đại_diện theo pháp_luật của chúng_tôi trên chứng_chỉ
?
- trường_hợp nào thì được cấp lại giấy xác_nhận đăng_ký công_cụ hỗ_trợ , thủ_tục
cấp lại giấy xác_nhận đăng_ký công_cụ hỗ_trợ như thế_nào ?
model-index:
- name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 768
type: dim_768
metrics:
- type: cosine_accuracy@1
value: 0.5925925925925926
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.7516339869281046
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.8071895424836601
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.8529411764705882
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.5925925925925926
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.25054466230936817
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.161437908496732
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.0852941176470588
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.5925925925925926
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.7516339869281046
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.8071895424836601
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.8529411764705882
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.7246556077543799
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.6832935643393162
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.6881841341907915
name: Cosine Map@100
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 512
type: dim_512
metrics:
- type: cosine_accuracy@1
value: 0.5893246187363834
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.7527233115468409
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.8082788671023965
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.8464052287581699
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.5893246187363834
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.25090777051561364
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.16165577342047927
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.084640522875817
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.5893246187363834
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.7527233115468409
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.8082788671023965
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.8464052287581699
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.7209821829203035
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.6803091607013181
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.6856356097551453
name: Cosine Map@100
---
# SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co./Alibaba-NLP/gte-multilingual-base) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co./Alibaba-NLP/gte-multilingual-base) <!-- at revision ade1467d6266ae07e6f74aae34d56bf3b8acf3f7 -->
- **Maximum Sequence Length:** 8192 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- json
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co./models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("anhtuansh/gte-multilingual-base-Matryoshka-2e-9k")
# Run inference
sentences = [
'quản_lý nhập_khẩu hàng_hóa bị điều_tra , phục_vụ công_tác điều_tra , áp_dụng biện_pháp phòng_vệ thương_mại .',
'mục_đích của thủ_tục khai_báo là gì ?',
'đơn_vị chúng_tôi đã được cấp chứng_chỉ năng_lực hoạt_động xây_dựng nhưng hiện_nay chúng_tôi thay_đổi người đại_diện pháp_luật của đơn_vị . vậy chúng_tôi có phải làm thủ_tục nào để thay_đổi người đại_diện theo pháp_luật của chúng_tôi trên chứng_chỉ ?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Information Retrieval
* Datasets: `dim_768` and `dim_512`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
| Metric | dim_768 | dim_512 |
|:--------------------|:-----------|:----------|
| cosine_accuracy@1 | 0.5926 | 0.5893 |
| cosine_accuracy@3 | 0.7516 | 0.7527 |
| cosine_accuracy@5 | 0.8072 | 0.8083 |
| cosine_accuracy@10 | 0.8529 | 0.8464 |
| cosine_precision@1 | 0.5926 | 0.5893 |
| cosine_precision@3 | 0.2505 | 0.2509 |
| cosine_precision@5 | 0.1614 | 0.1617 |
| cosine_precision@10 | 0.0853 | 0.0846 |
| cosine_recall@1 | 0.5926 | 0.5893 |
| cosine_recall@3 | 0.7516 | 0.7527 |
| cosine_recall@5 | 0.8072 | 0.8083 |
| cosine_recall@10 | 0.8529 | 0.8464 |
| **cosine_ndcg@10** | **0.7247** | **0.721** |
| cosine_mrr@10 | 0.6833 | 0.6803 |
| cosine_map@100 | 0.6882 | 0.6856 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### json
* Dataset: json
* Size: 8,259 training samples
* Columns: <code>positive</code> and <code>anchor</code>
* Approximate statistics based on the first 1000 samples:
| | positive | anchor |
|:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
| type | string | string |
| details | <ul><li>min: 5 tokens</li><li>mean: 303.9 tokens</li><li>max: 3209 tokens</li></ul> | <ul><li>min: 7 tokens</li><li>mean: 56.17 tokens</li><li>max: 578 tokens</li></ul> |
* Samples:
| positive | anchor |
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>điểm a , mục 2 phần ii thông_tư số 04 / 1999 / tt - bca ( c13 ) ngày 29 / 4 / 1999 của bộ công_an hướng_dẫn một_số quy_định của nghị_định số 05 / 1999 / nđ - cp ngày 03 / 01 / 1999 của chính_phủ về chứng_minh nhân_dân quy_định các trường_hợp phải đổi cmnd như sau : - quá thời_hạn sử_dụng 15 năm kể từ ngày cấp ; - cmnd rách , nát , không rõ ảnh hoặc một trong các thông_tin đã ghi trên cmnd ; - thay_đổi họ , tên , chữ đệm , ngày , tháng , năm sinh . những thay_đổi này phải có quyết_định của cơ_quan có thẩm_quyền ; - những người đã được cấp giấy cmnd nhưng chuyển nơi đăng_ký hộ_khẩu thường_trú ngoài phạm_vi tỉnh , thành_phố trực_thuộc trung_ương . trường_hợp chuyển nơi thường_trú trong phạm_vi tỉnh , thành_phố mà công_dân có yêu_cầu thì được đổi lại cmnd ; - thay_đổi đặc_điểm nhận_dạng là những trường_hợp đã qua phẫu_thuật thẩm_mỹ , chỉnh_hình hoặc vì lý_do khác đã làm thay_đổi hình_ảnh hoặc đặc_điểm nhận_dạng của họ .</code> | <code>công_dân phải làm thủ_tục đổi chứng_minh nhân_dân khi nào ?</code> |
| <code>việc thực_hiện thủ_tục tặng cờ thi_đua cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương theo đợt hoặc chuyên_đề được tiến_hành như sau : <br> bước 1 . vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương tiếp_nhận đề_nghị khen_thưởng của các đơn_vị thực thuộc . <br> bước 2 . thẩm_định hồ_sơ , xin ý_kiến các cơ_quan liên_quan , báo_cáo hội_đồng thi_đua khen_thưởng cùng cấp , tổng_hợp trình bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố quyết_định khen_thưởng . <br> bước 3 . khi có quyết_định của bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố trực_thuộc trung_ương ; vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương thông_báo quyết_định , viết bằng , đóng_dấu và cấp_phát cho đơn_vị trình khen . <br> bước 4 . các trường_hợp không được khen_thưởng ( không đúng đối_tượng , không đủ tiêu_chuẩn , không đủ hồ_sơ...</code> | <code>đề_nghị cho biết trình_tự thực_hiện thủ_tục tặng cờ thi_đua cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương theo đợt hoặc chuyên_đề</code> |
| <code>thời_gian phục_vụ tại_ngũ của hạ_sĩ_quan binh_sĩ được quy_định tại điều 21 luật nvqs năm 2015 , cụ_thể như sau : “ điều 21 . thời_hạn phục_vụ tại_ngũ của hạ_sĩ_quan , binh sĩ1 . thời_hạn phục_vụ tại_ngũ trong thời_bình của hạ_sĩ_quan , binh_sĩ là 24 tháng . 2 . bộ_trưởng bộ quốc_phòng được quyết_định kéo_dài thời_hạn phục_vụ tại_ngũ của hạ_sĩ_quan , binh_sĩ nhưng không quá 06 tháng trong trường_hợp sau đây : a ) để bảo_đảm_nhiệm_vụ sẵn_sàng chiến_đấu ; b ) đang thực_hiện nhiệm_vụ phòng , chống thiên_tai , dịch_bệnh , cứu_hộ , cứu nạn . 3 . thời_hạn phục_vụ của hạ_sĩ_quan , binh_sĩ trong tình_trạng chiến_tranh hoặc tình_trạng khẩn_cấp về quốc_phòng được thực_hiện theo lệnh tổng_động_viên hoặc động_viên cục_bộ . ”</code> | <code>quy_định thời_gian phục_vụ tại_ngũ của hạ__quan binh_sĩ như thế_nào ?</code> |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
```json
{
"loss": "MultipleNegativesRankingLoss",
"matryoshka_dims": [
768,
512
],
"matryoshka_weights": [
1,
1
],
"n_dims_per_step": -1
}
```
### Evaluation Dataset
#### json
* Dataset: json
* Size: 918 evaluation samples
* Columns: <code>positive</code> and <code>anchor</code>
* Approximate statistics based on the first 918 samples:
| | positive | anchor |
|:--------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
| type | string | string |
| details | <ul><li>min: 5 tokens</li><li>mean: 307.44 tokens</li><li>max: 3463 tokens</li></ul> | <ul><li>min: 11 tokens</li><li>mean: 55.94 tokens</li><li>max: 383 tokens</li></ul> |
* Samples:
| positive | anchor |
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>theo quy_định tại khoản 9 điều 1 nghị_định số 161 / 2018 / nđ - cpngày 29 / 11 / 2018 của chính_phủ sửa_đổi , bổ_sung một_số quy_định về tuyển_dụng công_chức , viên_chức , nâng ngạch công_chức , thăng_hạng viên_chức và thực_hiện chế_độ hợp_đồng một_số loại công_việc trong cơ_quan hành_chính nhà_nước , đơn_vị sự_nghiệp công_lập thì đối_tượng và điểm ưu_tiên trong thi_tuyển hoặc xét tuyển công_chức : <br> + anh_hùng lực_lượng vũ_trang , anh_hùng lao_động , thương_binh , người hưởng chính_sách như thương_binh , thương_binh loại b : được cộng 7,5 điểm vào kết_quả điểm thi tại vòng 2 ; <br> + người dân_tộc_thiểu_số , sĩ_quan quân_đội , sĩ_quan công_an , quân_nhân chuyên_nghiệp , người làm công_tác cơ_yếu chuyển ngành , con liệt_sĩ , con thương_binh , con bệnh_binh , con của người hưởng chính_sách như thương_binh , con của thương_binh loại b , con của người hoạt_động cách_mạng trước tổng_khởi_nghĩa ( từ ngày 19 / 8 / 1945 trở về trước ) , con_đẻ của người hoạt_động kháng_chiến bị nhiễm chất_độc_hó...</code> | <code>đề_nghị cho tôi được biết đối_tượng được hưởng ưu_tiên trong tuyển_dụng công_chức ?</code> |
| <code>1 . khi phát_hiện tổ_chức , cá_nhân kê_khai hồ_sơ , thông_báo không_trung_thực hoặc vi_phạm_quy_định tại điều 8 nghị_định số 23 / 2019 / nđ - cp , cơ_quan tiếp_nhận thông_báo yêu_cầu tạm dừng hoạt_động triển_lãm bằng văn_bản ( mẫu_số 03 tại phụ_lục ban_hành kèm theo nghị_định số 23 / 2019 / nđ - cp ) . 2 . tổ_chức , cá_nhân phải dừng hoạt_động triển_lãm ngay khi nhận được văn_bản của cơ_quan có thẩm_quyền ; kịp_thời_khắc_phục hậu_quả , đề_xuất phương_án tiếp_tục tổ_chức triển_lãm gửi cơ_quan có thẩm_quyền xem_xét , quyết_định . 3 . kết_quả xem_xét , quyết_định của cơ_quan có thẩm_quyền phải được thể_hiện bằng văn_bản và gửi cho tổ_chức , cá_nhân biết để thực_hiện . thời_hạn gửi văn_bản cho tổ_chức , cá_nhân là 03 ngày , kể từ ngày cơ_quan có thẩm_quyền nhận được văn_bản đề_xuất phương_án tiếp_tục tổ_chức triển_lãm của tổ_chức , cá_nhân .</code> | <code>những lý_do nào khiến hoạt_động triển_lãm bị tạm dừng ?</code> |
| <code>theo quy_định tại khoản 1 điều 33 luật quản_lý , sử_dụng vũ_khí , vật_liệu nổ và công_cụ hỗ_trợ và điểm a khoản 4 điều 3 thông_tư số 16 / 2018 / tt - bca ngày 15 / 5 / 2018 của bộ công_an quy_định chi_tiết thi_hành một_số điều của luật quản_lý , sử_dụng vũ_khí , vật_liệu nổ và công_cụ hỗ_trợ thì thủ_tục đề_nghị cấp giấy_phép vận_chuyển vũ_khí quân_dụng đối_với cơ_quan , tổ_chức ở trung_ương không thuộc phạm_vi quản_lý của bộ quốc_phòng được thực_hiện như sau : a ) hồ_sơ đề_nghị bao_gồm : văn_bản đề_nghị nêu rõ số_lượng , chủng_loại , nguồn_gốc xuất_xứ của vũ_khí cần vận_chuyển ; nơi đi , nơi đến , thời_gian và tuyến đường vận_chuyển ; họ và tên , địa_chỉ của người chịu trách_nhiệm vận_chuyển , người điều_khiển phương_tiện ; biển kiểm_soát của phương_tiện ; giấy giới_thiệu kèm theo bản_sao thẻ căn_cước công_dân , chứng_minh nhân_dân , hộ_chiếu hoặc chứng_minh công_an nhân_dân của người đến liên_hệ ; b ) hồ_sơ lập thành 01 bộ và nộp tại cục cảnh_sát qlhc về ttxh ; c ) trong thời_hạn 05 n...</code> | <code>thủ_tục cấp giấy_phép vận_chuyển vũ_khí quân_dụng đối_với cơ_quan , tổ_chức ở trung_ương không thuộc phạm_vi quản_lý của bộ quốc_phòng thực_hiện như thế_nào ?</code> |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
```json
{
"loss": "MultipleNegativesRankingLoss",
"matryoshka_dims": [
768,
512
],
"matryoshka_weights": [
1,
1
],
"n_dims_per_step": -1
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 2
- `per_device_eval_batch_size`: 2
- `gradient_accumulation_steps`: 2
- `learning_rate`: 2e-05
- `num_train_epochs`: 2
- `lr_scheduler_type`: cosine
- `warmup_ratio`: 0.1
- `fp16`: True
- `tf32`: False
- `load_best_model_at_end`: True
- `optim`: adamw_torch_fused
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 2
- `per_device_eval_batch_size`: 2
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 2
- `eval_accumulation_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 2
- `max_steps`: -1
- `lr_scheduler_type`: cosine
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: False
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
<details><summary>Click to expand</summary>
| Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 |
|:-------:|:--------:|:-------------:|:---------------:|:----------------------:|:----------------------:|
| 0 | 0 | - | - | 0.5887 | 0.5836 |
| 0.0048 | 10 | 0.1624 | - | - | - |
| 0.0097 | 20 | 0.1758 | - | - | - |
| 0.0145 | 30 | 0.2834 | - | - | - |
| 0.0194 | 40 | 0.2292 | - | - | - |
| 0.0242 | 50 | 0.1794 | - | - | - |
| 0.0291 | 60 | 0.4504 | - | - | - |
| 0.0339 | 70 | 0.2513 | - | - | - |
| 0.0387 | 80 | 0.1179 | - | - | - |
| 0.0436 | 90 | 0.1019 | - | - | - |
| 0.0484 | 100 | 0.1249 | - | - | - |
| 0.0533 | 110 | 0.0231 | - | - | - |
| 0.0581 | 120 | 0.1119 | - | - | - |
| 0.0630 | 130 | 0.2114 | - | - | - |
| 0.0678 | 140 | 0.0779 | - | - | - |
| 0.0726 | 150 | 0.0785 | - | - | - |
| 0.0775 | 160 | 0.2304 | - | - | - |
| 0.0823 | 170 | 0.089 | - | - | - |
| 0.0872 | 180 | 0.055 | - | - | - |
| 0.0920 | 190 | 0.2606 | - | - | - |
| 0.0969 | 200 | 0.0277 | - | - | - |
| 0.1017 | 210 | 0.0455 | - | - | - |
| 0.1065 | 220 | 0.2025 | - | - | - |
| 0.1114 | 230 | 0.187 | - | - | - |
| 0.1162 | 240 | 0.036 | - | - | - |
| 0.1211 | 250 | 0.0707 | - | - | - |
| 0.1259 | 260 | 0.0741 | - | - | - |
| 0.1308 | 270 | 0.0408 | - | - | - |
| 0.1356 | 280 | 0.068 | - | - | - |
| 0.1404 | 290 | 0.0423 | - | - | - |
| 0.1453 | 300 | 0.1999 | - | - | - |
| 0.1501 | 310 | 0.0113 | - | - | - |
| 0.1550 | 320 | 0.1331 | - | - | - |
| 0.1598 | 330 | 0.3229 | - | - | - |
| 0.1646 | 340 | 0.055 | - | - | - |
| 0.1695 | 350 | 0.0381 | - | - | - |
| 0.1743 | 360 | 0.0737 | - | - | - |
| 0.1792 | 370 | 0.0232 | - | - | - |
| 0.1840 | 380 | 0.025 | - | - | - |
| 0.1889 | 390 | 0.0672 | - | - | - |
| 0.1937 | 400 | 0.1074 | - | - | - |
| 0.1985 | 410 | 0.0353 | - | - | - |
| 0.2034 | 420 | 0.0354 | - | - | - |
| 0.2082 | 430 | 0.0621 | - | - | - |
| 0.2131 | 440 | 0.0182 | - | - | - |
| 0.2179 | 450 | 0.0181 | - | - | - |
| 0.2228 | 460 | 0.0838 | - | - | - |
| 0.2276 | 470 | 0.253 | - | - | - |
| 0.2324 | 480 | 0.0571 | - | - | - |
| 0.2373 | 490 | 0.0024 | - | - | - |
| 0.2421 | 500 | 0.007 | - | - | - |
| 0.2470 | 510 | 0.009 | - | - | - |
| 0.2518 | 520 | 0.0454 | - | - | - |
| 0.2567 | 530 | 0.087 | - | - | - |
| 0.2615 | 540 | 0.0319 | - | - | - |
| 0.2663 | 550 | 0.0124 | - | - | - |
| 0.2712 | 560 | 0.0865 | - | - | - |
| 0.2760 | 570 | 0.0534 | - | - | - |
| 0.2809 | 580 | 0.09 | - | - | - |
| 0.2857 | 590 | 0.038 | - | - | - |
| 0.2906 | 600 | 0.1974 | - | - | - |
| 0.2954 | 610 | 0.0022 | - | - | - |
| 0.3002 | 620 | 0.0099 | - | - | - |
| 0.3051 | 630 | 0.0334 | - | - | - |
| 0.3099 | 640 | 0.1995 | - | - | - |
| 0.3148 | 650 | 0.0045 | - | - | - |
| 0.3196 | 660 | 0.0678 | - | - | - |
| 0.3245 | 670 | 0.0579 | - | - | - |
| 0.3293 | 680 | 0.0028 | - | - | - |
| 0.3341 | 690 | 0.0642 | - | - | - |
| 0.3390 | 700 | 0.0052 | - | - | - |
| 0.3438 | 710 | 0.0273 | - | - | - |
| 0.3487 | 720 | 0.0027 | - | - | - |
| 0.3535 | 730 | 0.0592 | - | - | - |
| 0.3584 | 740 | 0.0009 | - | - | - |
| 0.3632 | 750 | 0.0526 | - | - | - |
| 0.3680 | 760 | 0.0124 | - | - | - |
| 0.3729 | 770 | 0.0053 | - | - | - |
| 0.3777 | 780 | 0.0227 | - | - | - |
| 0.3826 | 790 | 0.3092 | - | - | - |
| 0.3874 | 800 | 0.1404 | - | - | - |
| 0.3923 | 810 | 0.1714 | - | - | - |
| 0.3971 | 820 | 0.0396 | - | - | - |
| 0.4019 | 830 | 0.0544 | - | - | - |
| 0.4068 | 840 | 0.0703 | - | - | - |
| 0.4116 | 850 | 0.0765 | - | - | - |
| 0.4165 | 860 | 0.0069 | - | - | - |
| 0.4213 | 870 | 0.0094 | - | - | - |
| 0.4262 | 880 | 0.0231 | - | - | - |
| 0.4310 | 890 | 0.0129 | - | - | - |
| 0.4358 | 900 | 0.0091 | - | - | - |
| 0.4407 | 910 | 0.0006 | - | - | - |
| 0.4455 | 920 | 0.0194 | - | - | - |
| 0.4504 | 930 | 0.009 | - | - | - |
| 0.4552 | 940 | 0.0123 | - | - | - |
| 0.4600 | 950 | 0.0325 | - | - | - |
| 0.4649 | 960 | 0.0004 | - | - | - |
| 0.4697 | 970 | 0.004 | - | - | - |
| 0.4746 | 980 | 0.078 | - | - | - |
| 0.4794 | 990 | 0.0934 | - | - | - |
| 0.4843 | 1000 | 0.0732 | - | - | - |
| 0.4891 | 1010 | 0.0888 | - | - | - |
| 0.4939 | 1020 | 0.3093 | - | - | - |
| 0.4988 | 1030 | 0.0506 | - | - | - |
| 0.5036 | 1040 | 0.0016 | - | - | - |
| 0.5085 | 1050 | 0.0022 | - | - | - |
| 0.5133 | 1060 | 0.1189 | - | - | - |
| 0.5182 | 1070 | 0.1335 | - | - | - |
| 0.5230 | 1080 | 0.0043 | - | - | - |
| 0.5278 | 1090 | 0.0099 | - | - | - |
| 0.5327 | 1100 | 0.073 | - | - | - |
| 0.5375 | 1110 | 0.001 | - | - | - |
| 0.5424 | 1120 | 0.0079 | - | - | - |
| 0.5472 | 1130 | 0.0274 | - | - | - |
| 0.5521 | 1140 | 0.0009 | - | - | - |
| 0.5569 | 1150 | 0.0132 | - | - | - |
| 0.5617 | 1160 | 0.0673 | - | - | - |
| 0.5666 | 1170 | 0.0024 | - | - | - |
| 0.5714 | 1180 | 0.0586 | - | - | - |
| 0.5763 | 1190 | 0.1613 | - | - | - |
| 0.5811 | 1200 | 0.0193 | - | - | - |
| 0.5860 | 1210 | 0.01 | - | - | - |
| 0.5908 | 1220 | 0.0268 | - | - | - |
| 0.5956 | 1230 | 0.0857 | - | - | - |
| 0.6005 | 1240 | 0.0131 | - | - | - |
| 0.6053 | 1250 | 0.1802 | - | - | - |
| 0.6102 | 1260 | 0.0209 | - | - | - |
| 0.6150 | 1270 | 0.0022 | - | - | - |
| 0.6199 | 1280 | 0.1448 | - | - | - |
| 0.6247 | 1290 | 0.0977 | - | - | - |
| 0.6295 | 1300 | 0.0018 | - | - | - |
| 0.6344 | 1310 | 0.0153 | - | - | - |
| 0.6392 | 1320 | 0.0456 | - | - | - |
| 0.6441 | 1330 | 0.011 | - | - | - |
| 0.6489 | 1340 | 0.0405 | - | - | - |
| 0.6538 | 1350 | 0.1873 | - | - | - |
| 0.6586 | 1360 | 0.0497 | - | - | - |
| 0.6634 | 1370 | 0.0007 | - | - | - |
| 0.6683 | 1380 | 0.076 | - | - | - |
| 0.6731 | 1390 | 0.0007 | - | - | - |
| 0.6780 | 1400 | 0.0126 | - | - | - |
| 0.6828 | 1410 | 0.0559 | - | - | - |
| 0.6877 | 1420 | 0.2497 | - | - | - |
| 0.6925 | 1430 | 0.011 | - | - | - |
| 0.6973 | 1440 | 0.0069 | - | - | - |
| 0.7022 | 1450 | 0.1541 | - | - | - |
| 0.7070 | 1460 | 0.0018 | - | - | - |
| 0.7119 | 1470 | 0.0186 | - | - | - |
| 0.7167 | 1480 | 0.0162 | - | - | - |
| 0.7215 | 1490 | 0.0129 | - | - | - |
| 0.7264 | 1500 | 0.0068 | - | - | - |
| 0.7312 | 1510 | 0.0015 | - | - | - |
| 0.7361 | 1520 | 0.0029 | - | - | - |
| 0.7409 | 1530 | 0.0008 | - | - | - |
| 0.7458 | 1540 | 0.0044 | - | - | - |
| 0.7506 | 1550 | 0.002 | - | - | - |
| 0.7554 | 1560 | 0.0062 | - | - | - |
| 0.7603 | 1570 | 0.0326 | - | - | - |
| 0.7651 | 1580 | 0.0936 | - | - | - |
| 0.7700 | 1590 | 0.0015 | - | - | - |
| 0.7748 | 1600 | 0.1819 | - | - | - |
| 0.7797 | 1610 | 0.0948 | - | - | - |
| 0.7845 | 1620 | 0.0659 | - | - | - |
| 0.7893 | 1630 | 0.0023 | - | - | - |
| 0.7942 | 1640 | 0.0014 | - | - | - |
| 0.7990 | 1650 | 0.0252 | - | - | - |
| 0.8039 | 1660 | 0.0067 | - | - | - |
| 0.8087 | 1670 | 0.032 | - | - | - |
| 0.8136 | 1680 | 0.001 | - | - | - |
| 0.8184 | 1690 | 0.0114 | - | - | - |
| 0.8232 | 1700 | 0.0096 | - | - | - |
| 0.8281 | 1710 | 0.0002 | - | - | - |
| 0.8329 | 1720 | 0.0894 | - | - | - |
| 0.8378 | 1730 | 0.006 | - | - | - |
| 0.8426 | 1740 | 0.0017 | - | - | - |
| 0.8475 | 1750 | 0.0215 | - | - | - |
| 0.8523 | 1760 | 0.0311 | - | - | - |
| 0.8571 | 1770 | 0.1813 | - | - | - |
| 0.8620 | 1780 | 0.0052 | - | - | - |
| 0.8668 | 1790 | 0.0016 | - | - | - |
| 0.8717 | 1800 | 0.0266 | - | - | - |
| 0.8765 | 1810 | 0.0048 | - | - | - |
| 0.8814 | 1820 | 0.0019 | - | - | - |
| 0.8862 | 1830 | 0.0689 | - | - | - |
| 0.8910 | 1840 | 0.0066 | - | - | - |
| 0.8959 | 1850 | 0.0189 | - | - | - |
| 0.9007 | 1860 | 0.0039 | - | - | - |
| 0.9056 | 1870 | 0.0109 | - | - | - |
| 0.9104 | 1880 | 0.0033 | - | - | - |
| 0.9153 | 1890 | 0.0196 | - | - | - |
| 0.9201 | 1900 | 0.0004 | - | - | - |
| 0.9249 | 1910 | 0.0061 | - | - | - |
| 0.9298 | 1920 | 0.0013 | - | - | - |
| 0.9346 | 1930 | 0.0262 | - | - | - |
| 0.9395 | 1940 | 0.0633 | - | - | - |
| 0.9443 | 1950 | 0.0068 | - | - | - |
| 0.9492 | 1960 | 0.0118 | - | - | - |
| 0.9540 | 1970 | 0.0056 | - | - | - |
| 0.9588 | 1980 | 0.0037 | - | - | - |
| 0.9637 | 1990 | 0.0238 | - | - | - |
| 0.9685 | 2000 | 0.002 | - | - | - |
| 0.9734 | 2010 | 0.002 | - | - | - |
| 0.9782 | 2020 | 0.1351 | - | - | - |
| 0.9831 | 2030 | 0.0013 | - | - | - |
| 0.9879 | 2040 | 0.0002 | - | - | - |
| 0.9927 | 2050 | 0.0647 | - | - | - |
| 0.9976 | 2060 | 0.0085 | - | - | - |
| 1.0 | 2065 | - | 0.0219 | 0.7058 | 0.7040 |
| 1.0024 | 2070 | 0.0087 | - | - | - |
| 1.0073 | 2080 | 0.0668 | - | - | - |
| 1.0121 | 2090 | 0.0118 | - | - | - |
| 1.0169 | 2100 | 0.0008 | - | - | - |
| 1.0218 | 2110 | 0.0051 | - | - | - |
| 1.0266 | 2120 | 0.0019 | - | - | - |
| 1.0315 | 2130 | 0.0074 | - | - | - |
| 1.0363 | 2140 | 0.088 | - | - | - |
| 1.0412 | 2150 | 0.0009 | - | - | - |
| 1.0460 | 2160 | 0.001 | - | - | - |
| 1.0508 | 2170 | 0.0006 | - | - | - |
| 1.0557 | 2180 | 0.0006 | - | - | - |
| 1.0605 | 2190 | 0.2754 | - | - | - |
| 1.0654 | 2200 | 0.0127 | - | - | - |
| 1.0702 | 2210 | 0.0017 | - | - | - |
| 1.0751 | 2220 | 0.0242 | - | - | - |
| 1.0799 | 2230 | 0.0393 | - | - | - |
| 1.0847 | 2240 | 0.0053 | - | - | - |
| 1.0896 | 2250 | 0.0133 | - | - | - |
| 1.0944 | 2260 | 0.0191 | - | - | - |
| 1.0993 | 2270 | 0.0446 | - | - | - |
| 1.1041 | 2280 | 0.0015 | - | - | - |
| 1.1090 | 2290 | 0.0012 | - | - | - |
| 1.1138 | 2300 | 0.0028 | - | - | - |
| 1.1186 | 2310 | 0.0244 | - | - | - |
| 1.1235 | 2320 | 0.0026 | - | - | - |
| 1.1283 | 2330 | 0.0199 | - | - | - |
| 1.1332 | 2340 | 0.0176 | - | - | - |
| 1.1380 | 2350 | 0.0029 | - | - | - |
| 1.1429 | 2360 | 0.0684 | - | - | - |
| 1.1477 | 2370 | 0.0006 | - | - | - |
| 1.1525 | 2380 | 0.0017 | - | - | - |
| 1.1574 | 2390 | 0.0189 | - | - | - |
| 1.1622 | 2400 | 0.0094 | - | - | - |
| 1.1671 | 2410 | 0.0016 | - | - | - |
| 1.1719 | 2420 | 0.0013 | - | - | - |
| 1.1768 | 2430 | 0.0579 | - | - | - |
| 1.1816 | 2440 | 0.0002 | - | - | - |
| 1.1864 | 2450 | 0.0168 | - | - | - |
| 1.1913 | 2460 | 0.044 | - | - | - |
| 1.1961 | 2470 | 0.1015 | - | - | - |
| 1.2010 | 2480 | 0.0012 | - | - | - |
| 1.2058 | 2490 | 0.0044 | - | - | - |
| 1.2107 | 2500 | 0.0003 | - | - | - |
| 1.2155 | 2510 | 0.0042 | - | - | - |
| 1.2203 | 2520 | 0.0038 | - | - | - |
| 1.2252 | 2530 | 0.002 | - | - | - |
| 1.2300 | 2540 | 0.001 | - | - | - |
| 1.2349 | 2550 | 0.0035 | - | - | - |
| 1.2397 | 2560 | 0.0001 | - | - | - |
| 1.2446 | 2570 | 0.0008 | - | - | - |
| 1.2494 | 2580 | 0.0029 | - | - | - |
| 1.2542 | 2590 | 0.0091 | - | - | - |
| 1.2591 | 2600 | 0.0011 | - | - | - |
| 1.2639 | 2610 | 0.0001 | - | - | - |
| 1.2688 | 2620 | 0.0004 | - | - | - |
| 1.2736 | 2630 | 0.0008 | - | - | - |
| 1.2785 | 2640 | 0.0057 | - | - | - |
| 1.2833 | 2650 | 0.0007 | - | - | - |
| 1.2881 | 2660 | 0.0001 | - | - | - |
| 1.2930 | 2670 | 0.0002 | - | - | - |
| 1.2978 | 2680 | 0.0001 | - | - | - |
| 1.3027 | 2690 | 0.0003 | - | - | - |
| 1.3075 | 2700 | 0.001 | - | - | - |
| 1.3123 | 2710 | 0.008 | - | - | - |
| 1.3172 | 2720 | 0.0003 | - | - | - |
| 1.3220 | 2730 | 0.0002 | - | - | - |
| 1.3269 | 2740 | 0.0005 | - | - | - |
| 1.3317 | 2750 | 0.0054 | - | - | - |
| 1.3366 | 2760 | 0.0008 | - | - | - |
| 1.3414 | 2770 | 0.0005 | - | - | - |
| 1.3462 | 2780 | 0.0002 | - | - | - |
| 1.3511 | 2790 | 0.0067 | - | - | - |
| 1.3559 | 2800 | 0.0004 | - | - | - |
| 1.3608 | 2810 | 0.0007 | - | - | - |
| 1.3656 | 2820 | 0.0003 | - | - | - |
| 1.3705 | 2830 | 0.0011 | - | - | - |
| 1.3753 | 2840 | 0.0003 | - | - | - |
| 1.3801 | 2850 | 0.002 | - | - | - |
| 1.3850 | 2860 | 0.026 | - | - | - |
| 1.3898 | 2870 | 0.0008 | - | - | - |
| 1.3947 | 2880 | 0.0003 | - | - | - |
| 1.3995 | 2890 | 0.0158 | - | - | - |
| 1.4044 | 2900 | 0.0035 | - | - | - |
| 1.4092 | 2910 | 0.0001 | - | - | - |
| 1.4140 | 2920 | 0.0002 | - | - | - |
| 1.4189 | 2930 | 0.0003 | - | - | - |
| 1.4237 | 2940 | 0.0005 | - | - | - |
| 1.4286 | 2950 | 0.0004 | - | - | - |
| 1.4334 | 2960 | 0.0003 | - | - | - |
| 1.4383 | 2970 | 0.0002 | - | - | - |
| 1.4431 | 2980 | 0.0003 | - | - | - |
| 1.4479 | 2990 | 0.0005 | - | - | - |
| 1.4528 | 3000 | 0.0005 | - | - | - |
| 1.4576 | 3010 | 0.0005 | - | - | - |
| 1.4625 | 3020 | 0.0001 | - | - | - |
| 1.4673 | 3030 | 0.0002 | - | - | - |
| 1.4722 | 3040 | 0.0001 | - | - | - |
| 1.4770 | 3050 | 0.0123 | - | - | - |
| 1.4818 | 3060 | 0.0021 | - | - | - |
| 1.4867 | 3070 | 0.0001 | - | - | - |
| 1.4915 | 3080 | 0.0029 | - | - | - |
| 1.4964 | 3090 | 0.0004 | - | - | - |
| 1.5012 | 3100 | 0.0008 | - | - | - |
| 1.5061 | 3110 | 0.0012 | - | - | - |
| 1.5109 | 3120 | 0.0003 | - | - | - |
| 1.5157 | 3130 | 0.0005 | - | - | - |
| 1.5206 | 3140 | 0.0003 | - | - | - |
| 1.5254 | 3150 | 0.0002 | - | - | - |
| 1.5303 | 3160 | 0.0008 | - | - | - |
| 1.5351 | 3170 | 0.0022 | - | - | - |
| 1.5400 | 3180 | 0.0001 | - | - | - |
| 1.5448 | 3190 | 0.0062 | - | - | - |
| 1.5496 | 3200 | 0.0011 | - | - | - |
| 1.5545 | 3210 | 0.0009 | - | - | - |
| 1.5593 | 3220 | 0.0005 | - | - | - |
| 1.5642 | 3230 | 0.0002 | - | - | - |
| 1.5690 | 3240 | 0.0001 | - | - | - |
| 1.5738 | 3250 | 0.0007 | - | - | - |
| 1.5787 | 3260 | 0.0005 | - | - | - |
| 1.5835 | 3270 | 0.0002 | - | - | - |
| 1.5884 | 3280 | 0.0002 | - | - | - |
| 1.5932 | 3290 | 0.0223 | - | - | - |
| 1.5981 | 3300 | 0.0007 | - | - | - |
| 1.6029 | 3310 | 0.0001 | - | - | - |
| 1.6077 | 3320 | 0.0015 | - | - | - |
| 1.6126 | 3330 | 0.0 | - | - | - |
| 1.6174 | 3340 | 0.0003 | - | - | - |
| 1.6223 | 3350 | 0.0023 | - | - | - |
| 1.6271 | 3360 | 0.0005 | - | - | - |
| 1.6320 | 3370 | 0.0003 | - | - | - |
| 1.6368 | 3380 | 0.0004 | - | - | - |
| 1.6416 | 3390 | 0.0004 | - | - | - |
| 1.6465 | 3400 | 0.0013 | - | - | - |
| 1.6513 | 3410 | 0.0043 | - | - | - |
| 1.6562 | 3420 | 0.0002 | - | - | - |
| 1.6610 | 3430 | 0.0002 | - | - | - |
| 1.6659 | 3440 | 0.0002 | - | - | - |
| 1.6707 | 3450 | 0.0004 | - | - | - |
| 1.6755 | 3460 | 0.0001 | - | - | - |
| 1.6804 | 3470 | 0.0002 | - | - | - |
| 1.6852 | 3480 | 0.0086 | - | - | - |
| 1.6901 | 3490 | 0.0014 | - | - | - |
| 1.6949 | 3500 | 0.0004 | - | - | - |
| 1.6998 | 3510 | 0.0001 | - | - | - |
| 1.7046 | 3520 | 0.0012 | - | - | - |
| 1.7094 | 3530 | 0.0004 | - | - | - |
| 1.7143 | 3540 | 0.0002 | - | - | - |
| 1.7191 | 3550 | 0.0001 | - | - | - |
| 1.7240 | 3560 | 0.0001 | - | - | - |
| 1.7288 | 3570 | 0.0015 | - | - | - |
| 1.7337 | 3580 | 0.0001 | - | - | - |
| 1.7385 | 3590 | 0.0004 | - | - | - |
| 1.7433 | 3600 | 0.0003 | - | - | - |
| 1.7482 | 3610 | 0.0002 | - | - | - |
| 1.7530 | 3620 | 0.0007 | - | - | - |
| 1.7579 | 3630 | 0.0011 | - | - | - |
| 1.7627 | 3640 | 0.0007 | - | - | - |
| 1.7676 | 3650 | 0.0004 | - | - | - |
| 1.7724 | 3660 | 0.0183 | - | - | - |
| 1.7772 | 3670 | 0.0043 | - | - | - |
| 1.7821 | 3680 | 0.0008 | - | - | - |
| 1.7869 | 3690 | 0.0001 | - | - | - |
| 1.7918 | 3700 | 0.0003 | - | - | - |
| 1.7966 | 3710 | 0.0004 | - | - | - |
| 1.8015 | 3720 | 0.0005 | - | - | - |
| 1.8063 | 3730 | 0.0003 | - | - | - |
| 1.8111 | 3740 | 0.0002 | - | - | - |
| 1.8160 | 3750 | 0.0009 | - | - | - |
| 1.8208 | 3760 | 0.0015 | - | - | - |
| 1.8257 | 3770 | 0.0002 | - | - | - |
| 1.8305 | 3780 | 0.0004 | - | - | - |
| 1.8354 | 3790 | 0.0001 | - | - | - |
| 1.8402 | 3800 | 0.0002 | - | - | - |
| 1.8450 | 3810 | 0.0039 | - | - | - |
| 1.8499 | 3820 | 0.0002 | - | - | - |
| 1.8547 | 3830 | 0.0015 | - | - | - |
| 1.8596 | 3840 | 0.0003 | - | - | - |
| 1.8644 | 3850 | 0.0001 | - | - | - |
| 1.8692 | 3860 | 0.0001 | - | - | - |
| 1.8741 | 3870 | 0.0048 | - | - | - |
| 1.8789 | 3880 | 0.0002 | - | - | - |
| 1.8838 | 3890 | 0.0003 | - | - | - |
| 1.8886 | 3900 | 0.0003 | - | - | - |
| 1.8935 | 3910 | 0.0003 | - | - | - |
| 1.8983 | 3920 | 0.0006 | - | - | - |
| 1.9031 | 3930 | 0.0003 | - | - | - |
| 1.9080 | 3940 | 0.0002 | - | - | - |
| 1.9128 | 3950 | 0.0003 | - | - | - |
| 1.9177 | 3960 | 0.0013 | - | - | - |
| 1.9225 | 3970 | 0.0002 | - | - | - |
| 1.9274 | 3980 | 0.0006 | - | - | - |
| 1.9322 | 3990 | 0.002 | - | - | - |
| 1.9370 | 4000 | 0.0005 | - | - | - |
| 1.9419 | 4010 | 0.0003 | - | - | - |
| 1.9467 | 4020 | 0.0003 | - | - | - |
| 1.9516 | 4030 | 0.0018 | - | - | - |
| 1.9564 | 4040 | 0.0003 | - | - | - |
| 1.9613 | 4050 | 0.0002 | - | - | - |
| 1.9661 | 4060 | 0.0062 | - | - | - |
| 1.9709 | 4070 | 0.0001 | - | - | - |
| 1.9758 | 4080 | 0.0068 | - | - | - |
| 1.9806 | 4090 | 0.0006 | - | - | - |
| 1.9855 | 4100 | 0.0002 | - | - | - |
| 1.9903 | 4110 | 0.0003 | - | - | - |
| 1.9952 | 4120 | 0.0002 | - | - | - |
| **2.0** | **4130** | **0.0028** | **0.0194** | **0.7247** | **0.721** |
* The bold row denotes the saved checkpoint.
</details>
### Framework Versions
- Python: 3.10.14
- Sentence Transformers: 3.3.1
- Transformers: 4.41.2
- PyTorch: 2.4.0
- Accelerate: 0.29.3
- Datasets: 2.19.1
- Tokenizers: 0.19.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MatryoshkaLoss
```bibtex
@misc{kusupati2024matryoshka,
title={Matryoshka Representation Learning},
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
year={2024},
eprint={2205.13147},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->