SentenceTransformer based on sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'Thời điểm đánh giá và xếp loại chất lượng hằng năm của công chức, viên chức thuộc Bộ Tài chính được diễn ra trong thời gian nào?',
    'Thời điểm đánh giá xếp loại chất lượng hằng năm\\n...\\n2. Căn cứ tình hình thực tiễn của cơ quan, tổ chức, đơn vị, tập thể lãnh đạo cơ quan, tổ chức, đơn vị thống nhất với cấp ủy cùng cấp về việc kết hợp tổ chức cuộc họp đánh giá, xếp loại chất lượng công chức, viên chức và xếp loại đảng viên trong tổ chức, đơn vị mình, bảo đảm nghiêm túc, hiệu quả, tránh hình thức, lãng phí.\\n3. Tại thời điểm đánh giá, xếp loại chất lượng, trường hợp vắng mặt có lý do chính đáng hoặc nghỉ ốm, nghỉ chế độ thai sản theo quy định của pháp luật, công chức, viên chức có trách nhiệm làm báo cáo tại Phiếu đánh giá, xếp loại chất lượng theo chức trách, nhiệm vụ được giao, gửi cơ quan, tổ chức, đơn vị đang công tác để thực hiện việc đánh giá, xếp loại chất lượng theo quy định của pháp luật và Quy chế này.',
    '“Điều 1. Danh mục trang thiết bị y tế phục vụ phòng, chống dịch COVID-19 trong trường hợp cấp bách theo quy định tại khoản 3 Điều 29 Nghị định số 98/2021/NĐ-CP ngày 08 tháng 11 năm 2021 của Chính phủ về quản lý trang thiết bị y tế \\n1. Máy PCR. \\n2. Hóa chất (sinh phẩm) chạy máy PCR xét nghiệm SARS-CoV-2. \\n3. Test kít xét nghiệm nhanh kháng nguyên/ kháng thể kháng SARS-CoV-2. \\n4. Máy thở chức năng cao, máy thở xâm nhập và không xâm nhập, máy thở không xâm nhập, máy oxy dòng cao, máy thở xách tay. \\n5. Máy lọc máu liên tục. \\n6. Máy X-Quang di động. \\n7. Máy đo khí máu (đo được điện giải, lactat, hematocrite). \\n8. Máy theo dõi bệnh nhân>5 thông số. \\n9. Bơm tiêm điện; Bơm truyền dịch. \\n10. Máy phá rung tim có tạo nhịp. \\n11. Máy đo thời gian đông máu. \\n12. Máy đo huyết động.”',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 651,725 training samples
  • Columns: queries, corpus, and score
  • Approximate statistics based on the first 1000 samples:
    queries corpus score
    type string string int
    details
    • min: 9 tokens
    • mean: 24.71 tokens
    • max: 43 tokens
    • min: 29 tokens
    • mean: 121.6 tokens
    • max: 128 tokens
    • 0: ~43.80%
    • 1: ~37.00%
    • 2: ~19.20%
  • Samples:
    queries corpus score
    Người học ngành quản lý khai thác công trình thủy lợi trình độ cao đẳng phải có khả năng học tập và nâng cao trình độ như thế nào? Khả năng học tập, nâng cao trình độ\n- Khối lượng khối lượng kiến thức tối thiểu, yêu cầu về năng lực mà người học phải đạt được sau khi tốt nghiệp ngành, nghề Dược trình độ cao đẳng có thể tiếp tục phát triển ở các trình độ cao hơn;\n- Người học sau tốt nghiệp có năng lực tự học, tự cập nhật những tiến bộ khoa học công nghệ trong phạm vi ngành, nghề để nâng cao trình độ hoặc học liên thông lên trình độ cao hơn trong cùng ngành nghề hoặc trong nhóm ngành, nghề hoặc trong cùng lĩnh vực đào tạo. 2
    Nội dung lồng ghép vấn đề bình đẳng giới trong xây dựng văn bản quy phạm pháp luật được quy định thế nào? Nội dung lồng ghép vấn đề bình đẳng giới trong xây dựng văn bản quy phạm pháp luật\nTrong phạm vi điều chỉnh của văn bản quy phạm pháp luật:\n1. Xác định nội dung liên quan đến vấn đề bình đẳng giới hoặc vấn đề bất bình đẳng giới, phân biệt đối xử về giới.\n2. Quy định các biện pháp cần thiết để thực hiện bình đẳng giới hoặc để giải quyết vấn đề bất bình đẳng giới, phân biệt đối xử về giới; dự báo tác động của các quy định đó đối với nam và nữ sau khi được ban hành.\n3. Xác định nguồn nhân lực, tài chính cần thiết để triển khai các biện pháp thực hiện bình đẳng giới hoặc để giải quyết vấn đề bất bình đẳng giới, phân biệt đối xử về giới. 2
    Nội dung lồng ghép vấn đề bình đẳng giới trong xây dựng văn bản quy phạm pháp luật được quy định thế nào? Mục đích lồng ghép vấn đề bình đẳng giới trong xây dựng văn bản quy phạm pháp luật\nLồng ghép vấn đề bình đẳng giới trong xây dựng văn bản quy phạm pháp luật (sau đây gọi tắt là văn bản) là một biện pháp để thực hiện mục tiêu bình đẳng giới, xóa bỏ phân biệt đối xử về giới, bảo đảm quyền, lợi ích hợp pháp, phù hợp với đặc thù của mỗi giới; tạo cơ hội phát triển như nhau cho nam và nữ trong các lĩnh vực của đời sống xã hội và gia đình; bảo đảm bình đẳng giới thực chất giữa nam và nữ. 1
  • Loss: SoftmaxLoss

Training Hyperparameters

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3.0
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0061 500 1.0473
0.0123 1000 1.0447
0.0184 1500 1.0383
0.0246 2000 1.0395
0.0307 2500 1.0436
0.0368 3000 1.0375
0.0430 3500 1.0189
0.0491 4000 1.0282
0.0552 4500 1.0355
0.0614 5000 1.0286
0.0675 5500 1.0264
0.0737 6000 1.0174
0.0798 6500 1.0238
0.0859 7000 1.0217
0.0921 7500 1.0203
0.0982 8000 1.0201
0.1043 8500 1.0266
0.1105 9000 1.0379
0.1166 9500 1.0367
0.1228 10000 1.0384
0.1289 10500 1.0291
0.1350 11000 1.0362
0.1412 11500 1.0354
0.1473 12000 1.0204
0.1534 12500 1.0401
0.1596 13000 1.0237
0.1657 13500 1.0271
0.1719 14000 1.0235
0.1780 14500 1.0329
0.1841 15000 1.0474
0.1903 15500 1.0547
0.1964 16000 1.0557
0.2025 16500 1.0626
0.2087 17000 1.0551
0.2148 17500 1.0526
0.2210 18000 1.125
0.2271 18500 1.2996
0.2332 19000 1.0703
0.2394 19500 1.0601
0.2455 20000 1.0835
0.2516 20500 1.0583
0.2578 21000 1.141
0.2639 21500 1.0802
0.2701 22000 1.0589
0.2762 22500 1.086
0.2823 23000 1.0743
0.2885 23500 1.0605
0.2946 24000 1.0602
0.3007 24500 1.0732
0.3069 25000 1.0614
0.3130 25500 1.0666
0.3192 26000 1.0669
0.3253 26500 1.0627
0.3314 27000 1.0659
0.3376 27500 1.07
0.3437 28000 1.0783
0.3498 28500 1.078
0.3560 29000 1.0832
0.3621 29500 1.0695
0.3683 30000 1.0714
0.3744 30500 1.3794
0.3805 31000 1.0838
0.3867 31500 1.0541
0.3928 32000 1.0799
0.3989 32500 1.0622
0.4051 33000 1.0597
0.4112 33500 1.0731
0.4174 34000 1.0871
0.4235 34500 1.0535
0.4296 35000 1.3215
0.4358 35500 1.1501
0.4419 36000 1.1088
0.4480 36500 1.0844
0.4542 37000 1.0981
0.4603 37500 1.0856
0.4665 38000 1.0956
0.4726 38500 1.0813
0.4787 39000 1.0843
0.4849 39500 1.1053
0.4910 40000 1.092
0.4971 40500 1.081
0.5033 41000 1.0919
0.5094 41500 1.0681
0.5156 42000 1.0826
0.5217 42500 1.0809
0.5278 43000 1.093
0.5340 43500 1.0709
0.5401 44000 1.0623
0.5462 44500 1.0801
0.5524 45000 1.0833
0.5585 45500 1.0816
0.5647 46000 1.0697
0.5708 46500 1.0864
0.5769 47000 1.0744
0.5831 47500 1.0897
0.5892 48000 1.0727
0.5953 48500 1.0621
0.6015 49000 1.0582
0.6076 49500 1.0681
0.6138 50000 1.083
0.6199 50500 1.0632
0.6260 51000 1.0809
0.6322 51500 1.0525
0.6383 52000 1.6649
0.6444 52500 1.0873
0.6506 53000 1.0649
0.6567 53500 1.0591
0.6629 54000 1.061
0.6690 54500 1.0682
0.6751 55000 1.0616
0.6813 55500 1.0827
0.6874 56000 1.0799
0.6935 56500 1.0705
0.6997 57000 1.0821
0.7058 57500 1.0763
0.7120 58000 1.0842
0.7181 58500 1.0813
0.7242 59000 1.0678
0.7304 59500 1.0894
0.7365 60000 1.0733
0.7426 60500 1.0688
0.7488 61000 1.0665
0.7549 61500 1.0681
0.7611 62000 1.301
0.7672 62500 1.0907
0.7733 63000 1.3941
0.7795 63500 1.1355
0.7856 64000 1.2196
0.7917 64500 1.225
0.7979 65000 1.1437
0.8040 65500 1.0787
0.8102 66000 1.0686
0.8163 66500 1.1017
0.8224 67000 1.0999
0.8286 67500 1.0771
0.8347 68000 1.1015
0.8408 68500 1.0826
0.8470 69000 1.1046
0.8531 69500 1.0735
0.8593 70000 1.1056
0.8654 70500 1.1077
0.8715 71000 1.0897
0.8777 71500 1.0775
0.8838 72000 1.0907
0.8899 72500 1.0705
0.8961 73000 1.0776
0.9022 73500 1.0896
0.9084 74000 1.0889
0.9145 74500 1.0804
0.9206 75000 1.1087
0.9268 75500 1.0738
0.9329 76000 1.0806
0.9390 76500 1.0899
0.9452 77000 1.0814
0.9513 77500 1.0723
0.9575 78000 1.0923
0.9636 78500 1.0748
0.9697 79000 1.0745
0.9759 79500 1.081
0.9820 80000 1.08
0.9881 80500 1.0905
0.9943 81000 1.1064
1.0004 81500 1.0929
1.0066 82000 1.0815
1.0127 82500 1.0768
1.0188 83000 1.1004
1.0250 83500 1.0835
1.0311 84000 1.0765
1.0372 84500 1.0906
1.0434 85000 1.096
1.0495 85500 1.1085
1.0557 86000 1.0913
1.0618 86500 1.0974
1.0679 87000 1.0763
1.0741 87500 1.0894
1.0802 88000 1.1065
1.0863 88500 1.0898
1.0925 89000 1.1036
1.0986 89500 1.0825
1.1048 90000 1.1164
1.1109 90500 1.0811
1.1170 91000 1.115
1.1232 91500 1.1123
1.1293 92000 1.0846
1.1354 92500 1.0917
1.1416 93000 1.0879
1.1477 93500 1.0969
1.1539 94000 1.0849
1.1600 94500 1.0852
1.1661 95000 1.0774
1.1723 95500 1.0984
1.1784 96000 1.0936
1.1845 96500 1.0842
1.1907 97000 1.0895
1.1968 97500 1.09
1.2030 98000 1.0813
1.2091 98500 1.0965
1.2152 99000 1.1017
1.2214 99500 1.1045
1.2275 100000 1.093
1.2336 100500 1.0903
1.2398 101000 1.1133

Framework Versions

  • Python: 3.10.10
  • Sentence Transformers: 3.3.1
  • Transformers: 4.43.0
  • PyTorch: 2.5.0+cu124
  • Accelerate: 1.1.1
  • Datasets: 3.1.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers and SoftmaxLoss

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
8
Safetensors
Model size
118M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for legalvn/paraphrase-multilingual-MiniLM-L12-v2-vn-101000