SentenceTransformer based on Qwen/Qwen3-Embedding-4B
This is a sentence-transformers model finetuned from Qwen/Qwen3-Embedding-4B. It maps sentences & paragraphs to a 2560-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: Qwen/Qwen3-Embedding-4B
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 2560 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
(1): Pooling({'word_embedding_dimension': 2560, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
queries = [
"\u0645\u0627 \u0647\u0648 \u0627\u0644\u0634\u0631\u0637 \u0627\u0644\u0630\u064a \u064a\u062c\u0628 \u0639\u0644\u0649 \u0627\u0644\u0648\u0627\u0642\u0641 \u0627\u062a\u0628\u0627\u0639\u0647 \u0641\u064a\u0645\u0627 \u064a\u062a\u0639\u0644\u0642 \u0628\u0625\u062f\u0627\u0631\u0629 \u0648\u0642\u0641\u0647\u061f",
]
documents = [
'عقار ويوقف عليه، بخلاف الموقوف على عمارته يجب ادخاره لأجلها، وإلا لم يعد منه شيء لأجلها؛ لأنه يعرض للضياع أو لظالم يأخذ. 5 - وأما الحنابلة فيرجع عندهم إلى شرط الواقف في الإنفاق على الوقف وفي سائر أحواله، لأنه ثبت بوقفه، فوجب أن يتبع فيه شرطه. فإن عين الواقف الإنفاق عليه من غلته أو من غيرها عمل به رجوعا إلى شرطه، وإن لم يعينه - وكان الموقوف ذا روح كالخيل - فإنه ينفق عليه من غلته؛ لأن الوقف يقتضي تحبيس الأصل وتسبيل منفعته، ولا يحصل ذلك إلا بالإنفاق عليه فكان ذلك من ضرورته فإن لم يكن للموقوف غلة لضعف به ونحوه فنفقته على الموقوف عليه المعين؛ لأن الوقف عندهم يخرج من',
'عطف الصلاة على الذكر، والذكر الذي تعقبه الصلاة بلا فصل ليس إلا التحريمة فيقتضي هذا النص أن يكون التكبير خارج الصلاة لأن مقتضى العطف المغايرة بين المعطوف والمعطوف عليه إذ الشيء لا يعطف على نفسه(). وقال «تحريمها التكبير»() فأضاف التحريم إلى الصلاة والمضاف غير المضاف إليه لأن الشيء لا يضاف إلى نفسه، ولأجل أن تكبيرة الإحرام شرط فهو لا يتكرر كتكرار الأركان في كل صلاة كالركوع والسجود فلو كان ركنا لتكرر كما تكرر الأركان. كما عللوا كون تكبيرة الإحرام شرطا بأن الركن هو الداخل في الماهية والمصلي لا يدخل في الصلاة إلا بفراغه من تكبيرة الإحرام(). وللتوسع فيما يترتب على',
'والإمكانيات الكافية لها، والله المستعان، وهو ولي التوفيق. الموسوعة الفقهية أ أئمة التعريف: 1 - الأئمة لغة: من يقتدى بهم من رئيس أو غيره(). مفرده: إمام. ولا يبعد المعنى الاصطلاحي عن المعنى اللغوي، بإطلاقه الشامل للمقتدى بهم عموما في مجال الخير والشر، طوعا أو كرها(). الإطلاقات المختلفة لهذا المصطلح 2 - يطلق على الأنبياء أنهم «أئمة» من حيث يجب على الخلق اتباعهم، قال الله تعالى عقب ذكر بعض الأنبياء وجعلناهم أئمة يهدون بأمرنا() كما يطلق على الخلفاء «أئمة» لأنهم رتبوا في المحل الذي يجب على الناس اتباعهم',
]
query_embeddings = model.encode_query(queries)
document_embeddings = model.encode_document(documents)
print(query_embeddings.shape, document_embeddings.shape)
# [1, 2560] [3, 2560]
# Get the similarity scores for the embeddings
similarities = model.similarity(query_embeddings, document_embeddings)
print(similarities)
# tensor([[0.5581, 0.0583, 0.0569]])
Evaluation
Metrics
Semantic Similarity
- Dataset:
eval - Evaluated with
EmbeddingSimilarityEvaluator
| Metric | Value |
|---|---|
| pearson_cosine | 0.9116 |
| spearman_cosine | 0.8065 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 91,123 training samples
- Columns:
anchorandpositive - Approximate statistics based on the first 1000 samples:
anchor positive type string string details - min: 5 tokens
- mean: 23.86 tokens
- max: 69 tokens
- min: 193 tokens
- mean: 229.67 tokens
- max: 295 tokens
- Samples:
anchor positive من هو عبد الله بن عبد الرحمن النفراوي، وما هي أهم صنفاته؟للزركلي 1 \ 76؛ وطبقات ابن سعد 6 \ 188-199) ابن أبي زيد (310-386 ه) عبد الله بن عبد الرحمن النفراوي، القيرواني، أبو محمد: فقيه، مفسر من أعيان القيروان. مولده ومنشؤه ووفاته فيها. كان إمام المالكية في عصره. يلقب بقطب المذهب وبمالك الأصغر. قال عنه الذهبي: كان على أصول السلف في الأصول لا يتأول. من تصانيفه: «كتاب النوادر والزيادات»؛ و «مختصر المدونة»؛ و «كتاب الرسالة». (معجم المؤلفين 6 \ 73؛ والأعلام للزركلي 4 \ 230؛ وشذرات الذهب 3 \ 131) ابن أبي ليلى (74-148 ه) هو محمد بن عبد الرحمن بن أبي ليلى يسار (وقيل: داود) بن بلال. أنصاري كوفي. فقيه من أصحاب الرأي. وليكيف يتم توجيه اليمين عندما لا يرغب المدعي في تقديم البينة؟حق طلب اليمين ولو كانت له بينة حاضرة؛ لأنه مخير بين تقديم البينة أو طلب اليمين. كما قال الحنفية: إن قال المدعى عليه: لا أقر ولا أنكر، لا يستحلف، بل يحبس ليقر أو ينكر. وكذا لو لزم السكوت بلا آفة، عند أبي يوسف. ونقل عن البدائع: الأشبه أنه إنكار فيستحلف(). وتوجيه اليمين يكون من القاضي بطلب المدعي. واستثنى الإمام أبو يوسف أربع مسائل يوجه فيها القاضي اليمين بلا طلب المدعي. أولاها: الرد بالعيب، يحلف المشتري بالله ما رضيت بالعيب. والثانية: الشفيع: بالله ما أبطلت شفعتك. وثالثها: المرأة إذا طلبت فرض النفقة على زوجها الغائب: بالله ما خلف لك زوجك شيئا ولا أعطاكcontribute to making a text equivalent to an encyclopedia in Islamic scholarship?اسم: المدونات، أو المطولات، أو المبسوطات، أو الأمهات من كتب فقهية لم تراع فيها جميع الخصائص المشار إليها، وإن وجود خصيصة منها أو أكثر، بالقصد أو التوافق، ولا سيما شمول قدر كبير من المادة الفقهية الموثقة، هو الذي يسيغ إطلاق اسم الموسوعات عليها، من باب التجوز لا الحقيقة، لأنها تفتقر إلى أهم الخصائص: اتخاذ المصطلحات المرتبة أساسا للبحث فيها، فضلا عن سهولة الأسلوب وإطلاق الحدود للبيان المتناسق. والفقه الإسلامي غني بأمثال تلك المراجع التي إن خدمت بفهارس تحليلية كانت بمثابة موسوعات مبدئية لمذهب أو أكثر، وهي بهذه الخدمة ستكون مما يوطئ للموسوعة ويسد الفراغ إلى حين. أهداف - Loss:
MatryoshkaLosswith these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 2560, 1536, 768, 512 ], "matryoshka_weights": [ 1, 1, 1, 1 ], "n_dims_per_step": -1 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy: stepsper_device_train_batch_size: 6gradient_accumulation_steps: 2learning_rate: 0.0001num_train_epochs: 1warmup_steps: 100bf16: Truetf32: Trueload_best_model_at_end: Trueoptim: paged_adamw_8bit
All Hyperparameters
Click to expand
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: stepsprediction_loss_only: Trueper_device_train_batch_size: 6per_device_eval_batch_size: 8per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 2eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 0.0001weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1.0num_train_epochs: 1max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 100log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falsebf16: Truefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Truelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Trueignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}parallelism_config: Nonedeepspeed: Nonelabel_smoothing_factor: 0.0optim: paged_adamw_8bitoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthproject: huggingfacetrackio_space_id: trackioddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsehub_revision: Nonegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: noneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseliger_kernel_config: Noneeval_use_gather_object: Falseaverage_tokens_across_devices: Trueprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: proportionalrouter_mapping: {}learning_rate_mapping: {}
Training Logs
| Epoch | Step | Training Loss | eval_spearman_cosine |
|---|---|---|---|
| 0.0132 | 100 | 0.6026 | - |
| 0.0263 | 200 | 0.3886 | - |
| 0.0395 | 300 | 0.3765 | - |
| 0.0527 | 400 | 0.3261 | - |
| 0.0658 | 500 | 0.3843 | 0.7993 |
| 0.0790 | 600 | 0.4116 | - |
| 0.0922 | 700 | 0.3508 | - |
| 0.1053 | 800 | 0.4084 | - |
| 0.1185 | 900 | 0.3508 | - |
| 0.1317 | 1000 | 0.2892 | 0.8045 |
| 0.1449 | 1100 | 0.2915 | - |
| 0.1580 | 1200 | 0.347 | - |
| 0.1712 | 1300 | 0.328 | - |
| 0.1844 | 1400 | 0.3232 | - |
| 0.1975 | 1500 | 0.2443 | 0.8042 |
| 0.2107 | 1600 | 0.2877 | - |
| 0.2239 | 1700 | 0.3204 | - |
| 0.2370 | 1800 | 0.293 | - |
| 0.2502 | 1900 | 0.2974 | - |
| 0.2634 | 2000 | 0.2575 | 0.8051 |
| 0.2765 | 2100 | 0.2418 | - |
| 0.2897 | 2200 | 0.3061 | - |
| 0.3029 | 2300 | 0.3158 | - |
| 0.3160 | 2400 | 0.2764 | - |
| 0.3292 | 2500 | 0.2824 | 0.8064 |
| 0.3424 | 2600 | 0.321 | - |
| 0.3555 | 2700 | 0.254 | - |
| 0.3687 | 2800 | 0.3211 | - |
| 0.3819 | 2900 | 0.2988 | - |
| 0.3950 | 3000 | 0.2965 | 0.8063 |
| 0.4082 | 3100 | 0.2098 | - |
| 0.4214 | 3200 | 0.2348 | - |
| 0.4346 | 3300 | 0.2362 | - |
| 0.4477 | 3400 | 0.2273 | - |
| 0.4609 | 3500 | 0.2642 | 0.8061 |
| 0.4741 | 3600 | 0.2834 | - |
| 0.4872 | 3700 | 0.2828 | - |
| 0.5004 | 3800 | 0.2668 | - |
| 0.5136 | 3900 | 0.2733 | - |
| 0.5267 | 4000 | 0.3085 | 0.8069 |
| 0.5399 | 4100 | 0.3047 | - |
| 0.5531 | 4200 | 0.2503 | - |
| 0.5662 | 4300 | 0.2671 | - |
| 0.5794 | 4400 | 0.2041 | - |
| 0.5926 | 4500 | 0.3233 | 0.8066 |
| 0.6057 | 4600 | 0.3447 | - |
| 0.6189 | 4700 | 0.2845 | - |
| 0.6321 | 4800 | 0.2762 | - |
| 0.6452 | 4900 | 0.3012 | - |
| 0.6584 | 5000 | 0.2879 | 0.8066 |
| 0.6716 | 5100 | 0.267 | - |
| 0.6848 | 5200 | 0.2649 | - |
| 0.6979 | 5300 | 0.2975 | - |
| 0.7111 | 5400 | 0.351 | - |
| 0.7243 | 5500 | 0.2884 | 0.8064 |
| 0.7374 | 5600 | 0.2223 | - |
| 0.7506 | 5700 | 0.2801 | - |
| 0.7638 | 5800 | 0.2432 | - |
| 0.7769 | 5900 | 0.2379 | - |
| 0.7901 | 6000 | 0.2882 | 0.8065 |
| 0.8033 | 6100 | 0.2505 | - |
| 0.8164 | 6200 | 0.3277 | - |
| 0.8296 | 6300 | 0.3131 | - |
| 0.8428 | 6400 | 0.2773 | - |
| 0.8559 | 6500 | 0.308 | 0.8065 |
| 0.8691 | 6600 | 0.2376 | - |
| 0.8823 | 6700 | 0.2542 | - |
| 0.8954 | 6800 | 0.2692 | - |
| 0.9086 | 6900 | 0.212 | - |
| 0.9218 | 7000 | 0.3418 | 0.8065 |
| 0.9349 | 7100 | 0.3699 | - |
| 0.9481 | 7200 | 0.3073 | - |
| 0.9613 | 7300 | 0.2819 | - |
| 0.9745 | 7400 | 0.1871 | - |
| 0.9876 | 7500 | 0.1755 | 0.8065 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.11.14
- Sentence Transformers: 5.1.2
- Transformers: 4.57.1
- PyTorch: 2.9.0+cu128
- Accelerate: 1.11.0
- Datasets: 4.3.0
- Tokenizers: 0.22.1
Model tree for basharalrfooh/Qwen3_4B_fine_tuned
Evaluation results
- Pearson Cosine on evalself-reported0.912
- Spearman Cosine on evalself-reported0.807