SentenceTransformer based on intfloat/multilingual-e5-small
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-small. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-small
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 384 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("AhmedBadawy11/multilingual-e5-small-finetuned-ar")
# Run inference
sentences = [
'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.',
'ما الامثلة لجزر انجلترا؟',
'ماهي طبيعية النظام السياسي في النمسا؟',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
Unnamed Dataset
- Size: 1,193 training samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 51 tokens
- mean: 173.61 tokens
- max: 512 tokens
- min: 5 tokens
- mean: 12.68 tokens
- max: 28 tokens
- Samples:
positive anchor جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.
- من هو جمال أحمد حمزة خاشقجي؟
جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.
- متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال
جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا.
- في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Evaluation Dataset
Unnamed Dataset
- Size: 202 evaluation samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 62 tokens
- mean: 178.02 tokens
- max: 512 tokens
- min: 6 tokens
- mean: 12.32 tokens
- max: 25 tokens
- Samples:
positive anchor حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا».
بما وصفه رسول الله؟
أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة مبارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد.
و ماذا فعل فى غزوة بدر؟
القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس.
كم المسافة المدارية للقمر؟
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 10per_device_eval_batch_size
: 10learning_rate
: 2e-05weight_decay
: 0.01num_train_epochs
: 30warmup_ratio
: 0.1fp16
: Trueload_best_model_at_end
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 10per_device_eval_batch_size
: 10per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.01adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 30max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | loss |
---|---|---|---|
0.3333 | 50 | 1.1123 | - |
0.6667 | 100 | 0.8668 | 0.4901 |
1.0 | 150 | 0.2325 | - |
1.3333 | 200 | 0.7716 | 0.4220 |
1.6667 | 250 | 0.6343 | - |
2.0 | 300 | 0.1111 | 0.4935 |
2.3333 | 350 | 0.5677 | - |
2.6667 | 400 | 0.4588 | 0.4456 |
3.0 | 450 | 0.0711 | - |
3.3333 | 500 | 0.3811 | 0.4628 |
3.6667 | 550 | 0.3077 | - |
4.0 | 600 | 0.0332 | 0.5094 |
4.3333 | 650 | 0.2041 | - |
4.6667 | 700 | 0.2032 | 0.5058 |
5.0 | 750 | 0.0147 | - |
5.3333 | 800 | 0.1282 | 0.5928 |
5.6667 | 850 | 0.1462 | - |
6.0 | 900 | 0.0072 | 0.5126 |
6.3333 | 950 | 0.1108 | - |
6.6667 | 1000 | 0.0826 | 0.5600 |
7.0 | 1050 | 0.0047 | - |
7.3333 | 1100 | 0.0736 | 0.5639 |
7.6667 | 1150 | 0.0705 | - |
8.0 | 1200 | 0.0049 | 0.5298 |
8.3333 | 1250 | 0.0467 | - |
8.6667 | 1300 | 0.0471 | 0.5729 |
9.0 | 1350 | 0.0026 | - |
9.3333 | 1400 | 0.0286 | 0.5728 |
9.6667 | 1450 | 0.0233 | - |
10.0 | 1500 | 0.0026 | 0.5323 |
10.3333 | 1550 | 0.0187 | - |
10.6667 | 1600 | 0.0257 | 0.6122 |
11.0 | 1650 | 0.0021 | - |
11.3333 | 1700 | 0.0134 | 0.6243 |
11.6667 | 1750 | 0.017 | - |
12.0 | 1800 | 0.0017 | 0.5424 |
12.3333 | 1850 | 0.0086 | - |
12.6667 | 1900 | 0.0099 | 0.6278 |
13.0 | 1950 | 0.0015 | - |
13.3333 | 2000 | 0.0047 | 0.5956 |
13.6667 | 2050 | 0.0059 | - |
14.0 | 2100 | 0.0013 | 0.5540 |
0.4167 | 50 | 0.0679 | - |
0.8333 | 100 | 0.0287 | 0.6804 |
0.3333 | 50 | 0.0022 | - |
0.6667 | 100 | 0.0052 | 0.6104 |
1.0 | 150 | 0.001 | - |
1.3333 | 200 | 0.0027 | 0.6163 |
1.6667 | 250 | 0.0022 | - |
2.0 | 300 | 0.0007 | 0.5714 |
2.3333 | 350 | 0.003 | - |
2.6667 | 400 | 0.0031 | 0.5855 |
3.0 | 450 | 0.0006 | - |
3.3333 | 500 | 0.0024 | 0.5832 |
3.6667 | 550 | 0.0113 | - |
4.0 | 600 | 0.0008 | 0.6035 |
0.3333 | 50 | 0.002 | - |
0.6667 | 100 | 0.0054 | 0.6003 |
1.0 | 150 | 0.0005 | - |
1.3333 | 200 | 0.0007 | 0.6455 |
1.6667 | 250 | 0.0006 | - |
2.0 | 300 | 0.0003 | 0.5867 |
2.3333 | 350 | 0.0021 | - |
2.6667 | 400 | 0.0022 | 0.5723 |
3.0 | 450 | 0.0011 | - |
3.3333 | 500 | 0.0136 | 0.6295 |
3.6667 | 550 | 0.007 | - |
4.0 | 600 | 0.001 | 0.6163 |
4.3333 | 650 | 0.0089 | - |
4.6667 | 700 | 0.0058 | 0.6816 |
5.0 | 750 | 0.0013 | - |
5.3333 | 800 | 0.0023 | 0.6337 |
5.6667 | 850 | 0.0014 | - |
6.0 | 900 | 0.0006 | 0.5974 |
6.3333 | 950 | 0.001 | - |
6.6667 | 1000 | 0.0009 | 0.6871 |
7.0 | 1050 | 0.0004 | - |
7.3333 | 1100 | 0.0005 | 0.6807 |
7.6667 | 1150 | 0.0007 | - |
8.0 | 1200 | 0.0004 | 0.6377 |
8.3333 | 1250 | 0.0003 | - |
8.6667 | 1300 | 0.0005 | 0.6099 |
9.0 | 1350 | 0.0002 | - |
9.3333 | 1400 | 0.0004 | 0.6636 |
9.6667 | 1450 | 0.0004 | - |
10.0 | 1500 | 0.0003 | 0.6657 |
10.3333 | 1550 | 0.0003 | - |
10.6667 | 1600 | 0.0003 | 0.6837 |
11.0 | 1650 | 0.0002 | - |
11.3333 | 1700 | 0.0002 | 0.6655 |
11.6667 | 1750 | 0.0002 | - |
12.0 | 1800 | 0.0002 | 0.6687 |
12.3333 | 1850 | 0.0002 | - |
12.6667 | 1900 | 0.0002 | 0.6852 |
13.0 | 1950 | 0.0002 | - |
13.3333 | 2000 | 0.0002 | 0.6802 |
13.6667 | 2050 | 0.0002 | - |
14.0 | 2100 | 0.0002 | 0.6837 |
14.3333 | 2150 | 0.0002 | - |
14.6667 | 2200 | 0.0003 | 0.7097 |
15.0 | 2250 | 0.0002 | - |
15.3333 | 2300 | 0.0002 | 0.6871 |
15.6667 | 2350 | 0.0003 | - |
16.0 | 2400 | 0.0002 | 0.6774 |
16.3333 | 2450 | 0.0002 | - |
16.6667 | 2500 | 0.0002 | 0.6864 |
17.0 | 2550 | 0.0001 | - |
17.3333 | 2600 | 0.0002 | 0.6970 |
17.6667 | 2650 | 0.0002 | - |
18.0 | 2700 | 0.0001 | 0.6883 |
18.3333 | 2750 | 0.0002 | - |
18.6667 | 2800 | 0.0002 | 0.7124 |
19.0 | 2850 | 0.0001 | - |
19.3333 | 2900 | 0.0002 | 0.7006 |
19.6667 | 2950 | 0.0002 | - |
20.0 | 3000 | 0.0001 | 0.6969 |
20.3333 | 3050 | 0.0001 | - |
20.6667 | 3100 | 0.0001 | 0.7102 |
21.0 | 3150 | 0.0001 | - |
21.3333 | 3200 | 0.0001 | 0.6979 |
21.6667 | 3250 | 0.0001 | - |
22.0 | 3300 | 0.0001 | 0.7192 |
22.3333 | 3350 | 0.0001 | - |
22.6667 | 3400 | 0.0001 | 0.7169 |
23.0 | 3450 | 0.0001 | - |
23.3333 | 3500 | 0.0001 | 0.7235 |
0.6667 | 50 | 0.03 | - |
1.3333 | 100 | 0.027 | 0.8348 |
0.1672 | 50 | 0.0001 | - |
0.3344 | 100 | 0.0001 | 0.4700 |
0.5017 | 150 | 0.0001 | - |
0.6689 | 200 | 0.0001 | 0.4949 |
0.8361 | 250 | 0.0 | - |
1.0033 | 300 | 0.0001 | 0.4648 |
0.1672 | 50 | 0.0001 | - |
0.3344 | 100 | 0.0 | 0.4727 |
0.5017 | 150 | 0.0 | - |
0.6689 | 200 | 0.0 | 0.4947 |
0.8361 | 250 | 0.0 | - |
1.0033 | 300 | 0.0 | 0.4778 |
0.4167 | 50 | 0.0301 | - |
0.8333 | 100 | 0.0084 | 0.8593 |
1.25 | 150 | 0.0216 | - |
1.6667 | 200 | 0.0175 | 0.8385 |
2.0833 | 250 | 0.0043 | - |
2.5 | 300 | 0.0141 | 0.8201 |
2.9167 | 350 | 0.004 | - |
3.3333 | 400 | 0.0049 | 0.8553 |
3.75 | 450 | 0.0036 | - |
4.1667 | 500 | 0.0042 | 0.8287 |
4.5833 | 550 | 0.003 | - |
5.0 | 600 | 0.0011 | 0.8337 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.0.1
- Transformers: 4.42.4
- PyTorch: 2.3.1+cu121
- Accelerate: 0.27.0
- Datasets: 2.21.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 9
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for AhmedBadawy11/multilingual-e5-small-finetuned-ar
Base model
intfloat/multilingual-e5-small