Upload folder using huggingface_hub
Browse files- .gitattributes +1 -34
- 1_Pooling/config.json +10 -0
- README.md +745 -0
- added_tokens.json +28 -0
- chat_template.jinja +85 -0
- config.json +60 -0
- config_sentence_transformers.json +14 -0
- merges.txt +0 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +31 -0
- tokenizer.json +3 -0
- tokenizer_config.json +239 -0
- vocab.json +0 -0
.gitattributes
CHANGED
|
@@ -1,35 +1,2 @@
|
|
| 1 |
-
*.7z filter=lfs diff=lfs merge=lfs -text
|
| 2 |
-
*.arrow filter=lfs diff=lfs merge=lfs -text
|
| 3 |
-
*.bin filter=lfs diff=lfs merge=lfs -text
|
| 4 |
-
*.bz2 filter=lfs diff=lfs merge=lfs -text
|
| 5 |
-
*.ckpt filter=lfs diff=lfs merge=lfs -text
|
| 6 |
-
*.ftz filter=lfs diff=lfs merge=lfs -text
|
| 7 |
-
*.gz filter=lfs diff=lfs merge=lfs -text
|
| 8 |
-
*.h5 filter=lfs diff=lfs merge=lfs -text
|
| 9 |
-
*.joblib filter=lfs diff=lfs merge=lfs -text
|
| 10 |
-
*.lfs.* filter=lfs diff=lfs merge=lfs -text
|
| 11 |
-
*.mlmodel filter=lfs diff=lfs merge=lfs -text
|
| 12 |
-
*.model filter=lfs diff=lfs merge=lfs -text
|
| 13 |
-
*.msgpack filter=lfs diff=lfs merge=lfs -text
|
| 14 |
-
*.npy filter=lfs diff=lfs merge=lfs -text
|
| 15 |
-
*.npz filter=lfs diff=lfs merge=lfs -text
|
| 16 |
-
*.onnx filter=lfs diff=lfs merge=lfs -text
|
| 17 |
-
*.ot filter=lfs diff=lfs merge=lfs -text
|
| 18 |
-
*.parquet filter=lfs diff=lfs merge=lfs -text
|
| 19 |
-
*.pb filter=lfs diff=lfs merge=lfs -text
|
| 20 |
-
*.pickle filter=lfs diff=lfs merge=lfs -text
|
| 21 |
-
*.pkl filter=lfs diff=lfs merge=lfs -text
|
| 22 |
-
*.pt filter=lfs diff=lfs merge=lfs -text
|
| 23 |
-
*.pth filter=lfs diff=lfs merge=lfs -text
|
| 24 |
-
*.rar filter=lfs diff=lfs merge=lfs -text
|
| 25 |
*.safetensors filter=lfs diff=lfs merge=lfs -text
|
| 26 |
-
|
| 27 |
-
*.tar.* filter=lfs diff=lfs merge=lfs -text
|
| 28 |
-
*.tar filter=lfs diff=lfs merge=lfs -text
|
| 29 |
-
*.tflite filter=lfs diff=lfs merge=lfs -text
|
| 30 |
-
*.tgz filter=lfs diff=lfs merge=lfs -text
|
| 31 |
-
*.wasm filter=lfs diff=lfs merge=lfs -text
|
| 32 |
-
*.xz filter=lfs diff=lfs merge=lfs -text
|
| 33 |
-
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
-
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
-
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
*.safetensors filter=lfs diff=lfs merge=lfs -text
|
| 2 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 1024,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": false,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": true,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,745 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
language:
|
| 3 |
+
- multilingual
|
| 4 |
+
license: apache-2.0
|
| 5 |
+
tags:
|
| 6 |
+
- sentence-transformers
|
| 7 |
+
- sentence-similarity
|
| 8 |
+
- feature-extraction
|
| 9 |
+
- dense
|
| 10 |
+
- generated_from_trainer
|
| 11 |
+
- dataset_size:79716
|
| 12 |
+
- loss:MatryoshkaLoss
|
| 13 |
+
- loss:MultipleNegativesRankingLoss
|
| 14 |
+
base_model: Qwen/Qwen3-Embedding-0.6B
|
| 15 |
+
widget:
|
| 16 |
+
- source_sentence: Who were some of the scholars mentioned as having transmitted knowledge
|
| 17 |
+
from Hammad ibn Abi Qatada?
|
| 18 |
+
sentences:
|
| 19 |
+
- 'بن أبي ثابت وغيرهم. وعنه ابن المبارك وحسين بن علي \n\nالجعفي وعبد الله بن صالح
|
| 20 |
+
العجلي وأبو أحمد الزبيري وغيرهم. قال العجلي: ثقة، وقال أبو حنيفة: غلب حمزة الناس
|
| 21 |
+
على القرآن والفرائض. وقال الثوري: ما قرأ حمزة حرفا من كتاب الله إلا بأثر. قال
|
| 22 |
+
ابن حجر: انعقد الإجماع على تلقي قراءته بالقبول. لكن نقل صاحب المغني (1/492 ط 3)
|
| 23 |
+
عن أحمد أنه كان يكره قراءة حمزة والكسائي لما فيها من الكسر والإدغام والتكلف وزيادة
|
| 24 |
+
المد. (تهذيب التهذيب 3/27، وميزان الاعتدال 1/605، ووفيات الأعيان 1/167، والأعلام
|
| 25 |
+
2/308). \n\nخ \n\nخباب بن الأرت (؟ - 37 ه): \n\nهو خباب بن الأرت بن جندلة بن سعد،
|
| 26 |
+
أبو يحيى أو أبو عبد'
|
| 27 |
+
- 'عين ودين على الغير - ولم نجوز بيع الدين لغير من هو عليه - بطل الصلح في الدين،
|
| 28 |
+
وفي العين القولان في تفريق الصفقة. \n\nولو مات شخص عن ابنين، والتركة ألفا درهم
|
| 29 |
+
ومائة دينار، وهي دين في ذمة الغير، فصالح أحدهما أخاه من الدين على ألفي درهم جاز؛
|
| 30 |
+
لأنه إذا كان في الذمة فلا ضرورة إلى تقدير المعاوضة فيه، فيجعل مستوفيا لأحد الألفين
|
| 31 |
+
ومعتاضا عن الدنانير الألف الآخر(). \n\nظهور دين على التركة بعد التخارج: \n\n20
|
| 32 |
+
- الأصل أن الدين يتعلق بالتركة، ويقدم سداده على تقسيم التركة؛ : من بعد وصية
|
| 33 |
+
يوصى بها أو دين(). \n\nلكن الفقهاء يختلفون في وقت ابتداء ملكية الوارث للتركة إذا
|
| 34 |
+
كانت مدينة. \n\nفعند'
|
| 35 |
+
- 'ولعل العام هو المتأخر الذي أريد به العموم، وينسخ به الخاص، وهذا هو الذي اختاره
|
| 36 |
+
القاضي، والأصح عندنا: تقديم الخاص وإن كان ما ذكره \n\nالقاضي ممكنا، ولكن تقدير
|
| 37 |
+
النسخ محتاج إلى الحكم بدخول الكافرة تحت اللفظ، ثم خروجه عنه، فهو إثبات وضع، ورفع
|
| 38 |
+
بالتوهم، وإرادة الخاص باللفظ العام غالب معتاد، بل هو الأكثر، والنسخ كالنادر، فلا
|
| 39 |
+
سبيل إلى تقديره بالتوهم، ويكاد يشهد لما ذكرناه من سير الصحابة والتابعين كثير،
|
| 40 |
+
فإنهم كانوا يسارعون إلى الحكم بالخاص على العام، وما اشتغلوا بطلب التاريخ والتقدم
|
| 41 |
+
والتأخر(). \n\nوقيل على الشذوذ: إنه يخصص من طريق المفهوم، فإن الرجال يقتضي مفهومه
|
| 42 |
+
قتل غيرهم، فإذا لم'
|
| 43 |
+
- source_sentence: كيف يؤثر حصول الشخص على قليل من النقد مقابل نصاب أكبر في الحول
|
| 44 |
+
التجاري؟
|
| 45 |
+
sentences:
|
| 46 |
+
- 'للنساء لما سبق بيانه، وكرهه الحنفية والحنابلة(). \n\nالتصفيق في الصلاة على وجه
|
| 47 |
+
اللعب : \n\n7 - قال الشافعية، وهو أحد قولي الحنابلة: إن التصفيق في الصلاة على
|
| 48 |
+
وجه اللعب يبطلها وإن كان قليلا، لمنافاة اللعب للصلاة. والأصل في ذلك حديث الصحيحين:
|
| 49 |
+
«من نابه شيء في صلاته فليسبح، وإنما التصفيق للنساء». ولمنافاته للصلاة. \n\nوالقول
|
| 50 |
+
الآخر للحنابلة: أنه لا يبطلها إن قل، وإن كثر أبطلها؛ لأنه عمل من غير جنسها، فأبطلها
|
| 51 |
+
كثيره عمدا كان أو سهوا(). \n\nوأما الحنفية فقد قالوا: إن ما يعمل عادة باليدين
|
| 52 |
+
يكون كثيرا، بخلاف ما يعمل باليد الواحدة فقد يكون قليلا، والعمل الكثير الذي ليس
|
| 53 |
+
من أفعال الصلاة ولا'
|
| 54 |
+
- 'موسى : واجعل لي وزيرا من أهلي هارون أخي اشدد به أزري وأشركه في أمري() فإذا جاز
|
| 55 |
+
ذلك في النبوة كان في الإمامة أولى، ولأن ما وكل إلى الإمام من تدبير الأمة لا يقدر
|
| 56 |
+
على مباشرة جميعه إلا باستنابة، ونيابة الوزير المشارك له في التدبير أجدى في تنفيذ
|
| 57 |
+
الأمور من تفرده بها، ليستظهر به على نفسه، وبها يكون أبعد من الزلل وأمنع من الخلل.
|
| 58 |
+
\n\nقال الماوردي وأبو يعلى ما مفاده:() يشترط في لفظ تولية وزارة التفويض اشتماله
|
| 59 |
+
على أمرين: \n\nأحدهما: عموم النظر، والثاني: \n\nالنيابة، فإن اقتصر على عموم النظر
|
| 60 |
+
دون النيابة فكان بولاية العهد أخص فلم تنعقد به الوزارة، وإن اقتصر به على النيابة
|
| 61 |
+
فقد أبهم ما'
|
| 62 |
+
- 'بالدراهم وباع بالدنانير، وقصد التجارة مستمر، وتم الحول، فلا زكاة إن لم تبلغ الدنانير
|
| 63 |
+
قيمة الدراهم. وهناك قول في المذهب أن التقويم يكون أبدا بغالب نقد البلد. \n\nالحالة
|
| 64 |
+
الثانية: أن يكون رأس المال نقدا دون النصاب، وفيه وجهان: \n\nأصحهما: أنه يقوم بذلك
|
| 65 |
+
النقد. \n\nوالثاني: أنه يقوم بغالب نقد البلد. ومحل الوجهين إن لم يملك ما يتم به
|
| 66 |
+
النصاب. فإن ملك قوم به. وصورته: أن يشتري بمائة درهم وهو يملك مائة أخرى، فلا خلاف
|
| 67 |
+
أن التقويم بالدراهم. لأنه اشترى ببعض ما انعقد عليه الحول، وابتدأ الحول من حين
|
| 68 |
+
ملك الدراهم. \n\nالحال الثالث: أن يملك بالنقدين جميعا. وهو على ثلاثة أضرب. \n\nالأول:
|
| 69 |
+
أن يكون كل'
|
| 70 |
+
- source_sentence: كيف يرى الشافعية حقيقة إسلام المميز كاستقلال من غير افتقار؟
|
| 71 |
+
sentences:
|
| 72 |
+
- 'ذلك عن عمر ، وبه يقول شريح والقاسم بن محمد وسالم بن عبد الله والأوزاعي وابن أبي
|
| 73 |
+
ليلى ومالك والشافعي وعبد الملك بن يعلى قاضي البصرة(). \n\nوفي كشاف القناع: إذا
|
| 74 |
+
عزر من وجب عليه التعزير وجب على الحاكم أن يشهره لمصلحة كشاهد زور ليجتنب(). \n\nوجاء
|
| 75 |
+
في التبصرة: التعزير لا يختص بالسوط واليد والحبس، وإنما ذلك موكول إلى اجتهاد الإمام.
|
| 76 |
+
قال أبو بكر الطرطوشي في أخبار الخلفاء المتقدمين: إنهم كانوا يعاملون الرجل على
|
| 77 |
+
قدره وقدر جنايته، فمنهم من يضرب، ومنهم من يحبس، ومنهم من يقام واقفا على قدميه
|
| 78 |
+
في المحافل، ومنهم من تنزع عمامته. \n\nقال القرافي: إن التعزير يختلف باختلاف الأعصار
|
| 79 |
+
والأمصار، فرب'
|
| 80 |
+
- 'الحنفية والمالكية والحنابلة وبعض الشافعية إلى أن إسلام المميز يصح استقلالا من
|
| 81 |
+
غير افتقار إلى حكم حاكم، أو تبعيته لأحد أبويه؛ لأن النبي دعا عليا إلى الإسلام،
|
| 82 |
+
وهو ما زال في صباه فأسلم، وكان أول من أسلم من الصبيان؛ ولقوله : «كل مولود يولد
|
| 83 |
+
على الفطرة»()؛ ولأن الإسلام عبادة محضة فصحت من الصبي العاقل كالصلاة والصوم والحج
|
| 84 |
+
وغيرها من العبادات. \n\nويرى الشافعية في الراجح عندهم أن إسلام المميز استقلالا
|
| 85 |
+
لا يصح؛ لأنه غير مكلف بدليل قوله : «رفع القلم عن ثلاثة عن النائم حتى يستيقظ وعن
|
| 86 |
+
الصبي حتى يحتلم وعن المجنون حتى يفيق» وفي رواية: «وعن الصبي حتى يبلغ»(). \n\nولأن
|
| 87 |
+
نطقه بالشهادتين إما'
|
| 88 |
+
- 'سنا ولا ظفرا، فلا يحل ما ذبح بهما أو صيد بهما. وفرق بعض الفقهاء بين السن والظفر
|
| 89 |
+
القائمين فمنع الذبح بهما، بخلاف المنزوعين. ولا يحل ما أزهقت نفسه بمثقل كالحجر
|
| 90 |
+
ونحوه. وينبغي تعاهد الآلة لتكون محددة فتريح الذبيحة. \n\nوإن كان المصيد به حيوانا
|
| 91 |
+
كالكلب والصقر ونحوهما اعتبر أن يكون معلما. ومعنى التعليم في الجارحة أن تصير بحيث
|
| 92 |
+
إذا أرسلت أطاعت، وإذا \n\nزجرت انزجرت، وقيل بأن تترك الأكل من الصيد ثلاث مرات.
|
| 93 |
+
\n\nويذكر الفقهاء تفصيل ذلك والخلاف فيه في مباحث الصيد ومباحث الذبح(). \n\nآلات
|
| 94 |
+
الجهاد: \n\n5 - يجب إعداد العدة للجهاد، وتجوز مقاتلة العدو بالسلاح المناسب لكل
|
| 95 |
+
عصر، وفي تحريقهم بالنار'
|
| 96 |
+
- source_sentence: ما هي الأحكام القانونية التي يحكم بها الفقهاء على عقد "المضاربة"
|
| 97 |
+
وما هو موقفهم منها؟
|
| 98 |
+
sentences:
|
| 99 |
+
- 'ما بعد البلوغ ما دامت الحاجة قائمة لذلك. \n\n53 - والعلة في هذا الترخيص تدريبهن
|
| 100 |
+
عن شأن تربية الأولاد، وتقدم النقل عن الحليمي: أن من العلة أيضا استئناس الصبيان
|
| 101 |
+
وفرحهم(). وأن ذلك يحصل لهم به النشاط والقوة والفرح وحسن النشوء ومزيد التعلم. فعلى
|
| 102 |
+
هذا لا يكون الأمر قاصرا على الإناث من \n\nالصغار، بل يتعداه إلى الذكور منهم أيضا.
|
| 103 |
+
وممن صرح به أبو يوسف: ففي القنية عنه: يجوز بيع اللعبة، وأن يلعب بها الصبيان().
|
| 104 |
+
\n\n54 - ومما يؤكد جواز اللعب المصورة للصبيان - بالإضافة إلى البنات - ما ثبت في
|
| 105 |
+
الصحيحين عن الربيع بنت معوذ الأنصارية أنها قالت: «أرسل رسول الله غداة عاشوراء
|
| 106 |
+
إلى قرى الأنصار'
|
| 107 |
+
- 'وأما ما يتصل بالإبضاع فإن الصيغة اللفظية قد تكون \n\nصريحة بلفظ الإبضاع، أو البضاعة،
|
| 108 |
+
وقد تكون غير صريحة، كأن يقول: خذ هذا المال مضاربة، على أن يكون الربح كله لي. وهذه
|
| 109 |
+
الصورة محل خلاف بين الفقهاء(). فذهب الحنابلة إلى أن هذا العقد لا يصح، واعتبروا
|
| 110 |
+
ذلك من باب التناقض؛ لأن قوله: «مضاربة» يقتضي الشركة في الربح، وقوله: «الربح كله
|
| 111 |
+
لي» يقتضي عدمها، فتناقض قوله، ففسدت المضاربة، ولأنه اشترط اختصاص أحدهما بالربح،
|
| 112 |
+
وهذا شرط يناقض العقد ففسد، ولأن اللفظ الصريح في بابه لا يكون كناية في غيره، فالمضاربة
|
| 113 |
+
لا تنقلب إبضاعا ولا قرضا. وعلى هذا اعتبروا هذا العقد مضاربة فاسدة(). \n\nوذهب
|
| 114 |
+
الحنفية'
|
| 115 |
+
- 'فقيه، أصولي، متكلم، نحوي، كان شيخ الشافعية في بلاد اليمن. تفقه على جماعات منهم:
|
| 116 |
+
خاله الإمام أبو الفتوح بن عثمان العمراني وزيد بن عبد الله اليافعي وغيرهما. \n\nمن
|
| 117 |
+
تصانيفه: «البيان» في فروع الشافعية، و«غرائب الوسيط»، و «الزوائد»، و «الأحداث»،
|
| 118 |
+
و «شرح الوسائل»، و «مختصر الإحياء»، و «مناقب الإمام الشافعي». \n\n(طبقات الشافعية
|
| 119 |
+
4/324، وشذرات الذهب 4/185، والأعلام 9/180، ومعجم المؤلفين 13/196). \n\nيسيرة الصحابية
|
| 120 |
+
(؟ -؟) هي يسيرة أم ياسر. وقيل: يسيرة بنت ياسر، الصحابية المهاجرة . كانت من المهاجرات
|
| 121 |
+
الأول المبايعات. وقال \n\nابن سعد: أسلمت وبايعت وروت عن رسول الله (حديثا. \n\n(الإصابة'
|
| 122 |
+
- source_sentence: What is the procedure for increasing or decreasing penalties in
|
| 123 |
+
cases like those described in the text?
|
| 124 |
+
sentences:
|
| 125 |
+
- المحتاج شرح المنهاج»؛ و «الإيعاب شرح العباب المحيط بمعظم نصوص الشافعية والأصحاب»؛
|
| 126 |
+
و «الصواعق المحرقة في الرد على أهل البدع والزندقة»؛ و «إتحاف أهل الإسلام بخصوصيات
|
| 127 |
+
الصيام». \n\n(البدر الطالع 1 \\ 109؛ ومعجم المؤلفين 2 \\ 152؛ والأعلام للزركلي
|
| 128 |
+
1 \\ 223) \n\nابن حزم (384 -456 ه) \n\nهو علي بن أحمد بن سعيد بن حزم الظاهري.
|
| 129 |
+
أبو محمد. عالم الأندلس في عصره. أصله من الفرس. أول من أسلم من أسلافه جد له كان
|
| 130 |
+
يدعى يزيد مولى ليزيد بن أبي سفيان . كانت لابن حزم الوزارة وتدبير المملكة، فانصرف
|
| 131 |
+
عنها إلى التأليف والعلم. كان فقيها حافظا يستنبط الأحكام من الكتاب والسنة على طريقة
|
| 132 |
+
أهل الظاهر، بعيدا عن
|
| 133 |
+
- 'آت بالدين في وقت كذا فأنا مسلم أو مؤمن، ونحو ذلك من الشروط التي يعلق عليها، فلا
|
| 134 |
+
يلزم إسلام إذا وجد ذلك الشرط، بل يبقى على كفره بسبب أن الدخول في الدين يعتمد الجزم
|
| 135 |
+
بصحته والمعلق ليس جازما(). \n\nأما العقود فيرى جمهور الفقهاء أن الأصل فيها أن
|
| 136 |
+
تكون منجزة وعلى وجه الخصوص في التمليكات والنكاح، وأجازوا التعليق في الطلاق بناء
|
| 137 |
+
على قاعدة من ملك التنجيز ملك التعليق(). \n\nومنهم من أجاز تعليق البيع في بعض صوره
|
| 138 |
+
كالشافعية. \n\nومنهم من أجاز تعليق العقود بإطلاق كبعض الحنابلة. \n\nقال ابن القيم:
|
| 139 |
+
إن تعليق العقود والفسوخ والتبرعات والالتزامات وغيرها بالشروط أمر قد تدعو إليه
|
| 140 |
+
الضرورة أو الحاجة'
|
| 141 |
+
- 'العلانية، ما لفلان هذا عليك ولا قبلك هذا المال الذي ادعاه، وهو كذا وكذا، ولا
|
| 142 |
+
شيء منه. وللقاضي أن يزيد على هذا في التغليظ وينقص، وليس عندهم التغليظ بالزمان
|
| 143 |
+
والمكان؛ لأن المقصود تعظيم المقسم به، وهو حاصل بدون ذلك. وفي إيجاب التغليظ حرج
|
| 144 |
+
على القاضي. وهم مجمعون على أن من وجهت إليه اليمين لا يعتبر ناكلا إن أبى التغليظ().
|
| 145 |
+
\n\nالتحالف: \n\n27 - مصدر تحالف، ومن معانيه في اللغة: طلب كل من المتداعيين يمين
|
| 146 |
+
الآخر. وهذا المعنى هو الموافق للشرع. غاية الأمر أن التحالف يكون أمام القضاء().
|
| 147 |
+
\n\nوالمراد هنا حلف المتخاصمين في مجلس القضاء. \n\nإذا اختلف البائع والمشتري في
|
| 148 |
+
مقدار الثمن أو المبيع أو'
|
| 149 |
+
pipeline_tag: sentence-similarity
|
| 150 |
+
library_name: sentence-transformers
|
| 151 |
+
metrics:
|
| 152 |
+
- cosine_accuracy@1
|
| 153 |
+
- cosine_accuracy@3
|
| 154 |
+
- cosine_accuracy@5
|
| 155 |
+
- cosine_accuracy@10
|
| 156 |
+
- cosine_precision@1
|
| 157 |
+
- cosine_precision@3
|
| 158 |
+
- cosine_precision@5
|
| 159 |
+
- cosine_precision@10
|
| 160 |
+
- cosine_recall@1
|
| 161 |
+
- cosine_recall@3
|
| 162 |
+
- cosine_recall@5
|
| 163 |
+
- cosine_recall@10
|
| 164 |
+
- cosine_ndcg@10
|
| 165 |
+
- cosine_mrr@10
|
| 166 |
+
- cosine_map@100
|
| 167 |
+
model-index:
|
| 168 |
+
- name: Qwen/Qwen3-Embedding-0.6B
|
| 169 |
+
results:
|
| 170 |
+
- task:
|
| 171 |
+
type: information-retrieval
|
| 172 |
+
name: Information Retrieval
|
| 173 |
+
dataset:
|
| 174 |
+
name: dim 1024
|
| 175 |
+
type: dim_1024
|
| 176 |
+
metrics:
|
| 177 |
+
- type: cosine_accuracy@1
|
| 178 |
+
value: 0.3410022245638684
|
| 179 |
+
name: Cosine Accuracy@1
|
| 180 |
+
- type: cosine_accuracy@3
|
| 181 |
+
value: 0.5064395269874722
|
| 182 |
+
name: Cosine Accuracy@3
|
| 183 |
+
- type: cosine_accuracy@5
|
| 184 |
+
value: 0.5721227022596885
|
| 185 |
+
name: Cosine Accuracy@5
|
| 186 |
+
- type: cosine_accuracy@10
|
| 187 |
+
value: 0.655309682706943
|
| 188 |
+
name: Cosine Accuracy@10
|
| 189 |
+
- type: cosine_precision@1
|
| 190 |
+
value: 0.3410022245638684
|
| 191 |
+
name: Cosine Precision@1
|
| 192 |
+
- type: cosine_precision@3
|
| 193 |
+
value: 0.1688131756624907
|
| 194 |
+
name: Cosine Precision@3
|
| 195 |
+
- type: cosine_precision@5
|
| 196 |
+
value: 0.11442454045193769
|
| 197 |
+
name: Cosine Precision@5
|
| 198 |
+
- type: cosine_precision@10
|
| 199 |
+
value: 0.0655309682706943
|
| 200 |
+
name: Cosine Precision@10
|
| 201 |
+
- type: cosine_recall@1
|
| 202 |
+
value: 0.3410022245638684
|
| 203 |
+
name: Cosine Recall@1
|
| 204 |
+
- type: cosine_recall@3
|
| 205 |
+
value: 0.5064395269874722
|
| 206 |
+
name: Cosine Recall@3
|
| 207 |
+
- type: cosine_recall@5
|
| 208 |
+
value: 0.5721227022596885
|
| 209 |
+
name: Cosine Recall@5
|
| 210 |
+
- type: cosine_recall@10
|
| 211 |
+
value: 0.655309682706943
|
| 212 |
+
name: Cosine Recall@10
|
| 213 |
+
- type: cosine_ndcg@10
|
| 214 |
+
value: 0.4919469504004404
|
| 215 |
+
name: Cosine Ndcg@10
|
| 216 |
+
- type: cosine_mrr@10
|
| 217 |
+
value: 0.4404047330987915
|
| 218 |
+
name: Cosine Mrr@10
|
| 219 |
+
- type: cosine_map@100
|
| 220 |
+
value: 0.44857536994508135
|
| 221 |
+
name: Cosine Map@100
|
| 222 |
+
- task:
|
| 223 |
+
type: information-retrieval
|
| 224 |
+
name: Information Retrieval
|
| 225 |
+
dataset:
|
| 226 |
+
name: dim 256
|
| 227 |
+
type: dim_256
|
| 228 |
+
metrics:
|
| 229 |
+
- type: cosine_accuracy@1
|
| 230 |
+
value: 0.2982086406743941
|
| 231 |
+
name: Cosine Accuracy@1
|
| 232 |
+
- type: cosine_accuracy@3
|
| 233 |
+
value: 0.4490691956445381
|
| 234 |
+
name: Cosine Accuracy@3
|
| 235 |
+
- type: cosine_accuracy@5
|
| 236 |
+
value: 0.5165086055497015
|
| 237 |
+
name: Cosine Accuracy@5
|
| 238 |
+
- type: cosine_accuracy@10
|
| 239 |
+
value: 0.6008078679311556
|
| 240 |
+
name: Cosine Accuracy@10
|
| 241 |
+
- type: cosine_precision@1
|
| 242 |
+
value: 0.2982086406743941
|
| 243 |
+
name: Cosine Precision@1
|
| 244 |
+
- type: cosine_precision@3
|
| 245 |
+
value: 0.14968973188151272
|
| 246 |
+
name: Cosine Precision@3
|
| 247 |
+
- type: cosine_precision@5
|
| 248 |
+
value: 0.10330172110994028
|
| 249 |
+
name: Cosine Precision@5
|
| 250 |
+
- type: cosine_precision@10
|
| 251 |
+
value: 0.060080786793115556
|
| 252 |
+
name: Cosine Precision@10
|
| 253 |
+
- type: cosine_recall@1
|
| 254 |
+
value: 0.2982086406743941
|
| 255 |
+
name: Cosine Recall@1
|
| 256 |
+
- type: cosine_recall@3
|
| 257 |
+
value: 0.4490691956445381
|
| 258 |
+
name: Cosine Recall@3
|
| 259 |
+
- type: cosine_recall@5
|
| 260 |
+
value: 0.5165086055497015
|
| 261 |
+
name: Cosine Recall@5
|
| 262 |
+
- type: cosine_recall@10
|
| 263 |
+
value: 0.6008078679311556
|
| 264 |
+
name: Cosine Recall@10
|
| 265 |
+
- type: cosine_ndcg@10
|
| 266 |
+
value: 0.44139225396972825
|
| 267 |
+
name: Cosine Ndcg@10
|
| 268 |
+
- type: cosine_mrr@10
|
| 269 |
+
value: 0.39132710474034305
|
| 270 |
+
name: Cosine Mrr@10
|
| 271 |
+
- type: cosine_map@100
|
| 272 |
+
value: 0.40018603040672085
|
| 273 |
+
name: Cosine Map@100
|
| 274 |
+
---
|
| 275 |
+
|
| 276 |
+
# Qwen/Qwen3-Embedding-0.6B
|
| 277 |
+
|
| 278 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 279 |
+
|
| 280 |
+
## Model Details
|
| 281 |
+
|
| 282 |
+
### Model Description
|
| 283 |
+
- **Model Type:** Sentence Transformer
|
| 284 |
+
- **Base model:** [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B) <!-- at revision c54f2e6e80b2d7b7de06f51cec4959f6b3e03418 -->
|
| 285 |
+
- **Maximum Sequence Length:** 192 tokens
|
| 286 |
+
- **Output Dimensionality:** 1024 dimensions
|
| 287 |
+
- **Similarity Function:** Cosine Similarity
|
| 288 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 289 |
+
- **Language:** multilingual
|
| 290 |
+
- **License:** apache-2.0
|
| 291 |
+
|
| 292 |
+
### Model Sources
|
| 293 |
+
|
| 294 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 295 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 296 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 297 |
+
|
| 298 |
+
### Full Model Architecture
|
| 299 |
+
|
| 300 |
+
```
|
| 301 |
+
SentenceTransformer(
|
| 302 |
+
(0): Transformer({'max_seq_length': 192, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
|
| 303 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
|
| 304 |
+
(2): Normalize()
|
| 305 |
+
)
|
| 306 |
+
```
|
| 307 |
+
|
| 308 |
+
## Usage
|
| 309 |
+
|
| 310 |
+
### Direct Usage (Sentence Transformers)
|
| 311 |
+
|
| 312 |
+
First install the Sentence Transformers library:
|
| 313 |
+
|
| 314 |
+
```bash
|
| 315 |
+
pip install -U sentence-transformers
|
| 316 |
+
```
|
| 317 |
+
|
| 318 |
+
Then you can load this model and run inference.
|
| 319 |
+
```python
|
| 320 |
+
from sentence_transformers import SentenceTransformer
|
| 321 |
+
|
| 322 |
+
# Download from the 🤗 Hub
|
| 323 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 324 |
+
# Run inference
|
| 325 |
+
sentences = [
|
| 326 |
+
'What is the procedure for increasing or decreasing penalties in cases like those described in the text?',
|
| 327 |
+
'العلانية، ما لفلان هذا عليك ولا قبلك هذا المال الذي ادعاه، وهو كذا وكذا، ولا شيء منه. وللقاضي أن يزيد على هذا في التغليظ وينقص، وليس عندهم التغليظ بالزمان والمكان؛ لأن المقصود تعظيم المقسم به، وهو حاصل بدون ذلك. وفي إيجاب التغليظ حرج على القاضي. وهم مجمعون على أن من وجهت إليه اليمين لا يعتبر ناكلا إن أبى التغليظ(). \\n\\nالتحالف: \\n\\n27 - مصدر تحالف، ومن معانيه في اللغة: طلب كل من المتداعيين يمين الآخر. وهذا المعنى هو الموافق للشرع. غاية الأمر أن التحالف يكون أمام القضاء(). \\n\\nوالمراد هنا حلف المتخاصمين في مجلس القضاء. \\n\\nإذا اختلف البائع والمشتري في مقدار الثمن أو المبيع أو',
|
| 328 |
+
'المحتاج شرح المنهاج»؛ و «الإيعاب شرح العباب المحيط بمعظم نصوص الشافعية والأصحاب»؛ و «الصواعق المحرقة في الرد على أهل البدع والزندقة»؛ و «إتحاف أهل الإسلام بخصوصيات الصيام». \\n\\n(البدر الطالع 1 \\\\ 109؛ ومعجم المؤلفين 2 \\\\ 152؛ والأعلام للزركلي 1 \\\\ 223) \\n\\nابن حزم (384 -456 ه) \\n\\nهو علي بن أحمد بن سعيد بن حزم الظاهري. أبو محمد. عالم الأندلس في عصره. أصله من الفرس. أول من أسلم من أسلافه جد له كان يدعى يزيد مولى ليزيد بن أبي سفيان . كانت لابن حزم الوزارة وتدبير المملكة، فانصرف عنها إلى التأليف والعلم. كان فقيها حافظا يستنبط الأحكام من الكتاب والسنة على طريقة أهل الظاهر، بعيدا عن',
|
| 329 |
+
]
|
| 330 |
+
embeddings = model.encode(sentences)
|
| 331 |
+
print(embeddings.shape)
|
| 332 |
+
# [3, 1024]
|
| 333 |
+
|
| 334 |
+
# Get the similarity scores for the embeddings
|
| 335 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 336 |
+
print(similarities)
|
| 337 |
+
# tensor([[ 1.0000, 0.2793, -0.0995],
|
| 338 |
+
# [ 0.2793, 1.0000, -0.1603],
|
| 339 |
+
# [-0.0995, -0.1603, 1.0000]])
|
| 340 |
+
```
|
| 341 |
+
|
| 342 |
+
<!--
|
| 343 |
+
### Direct Usage (Transformers)
|
| 344 |
+
|
| 345 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 346 |
+
|
| 347 |
+
</details>
|
| 348 |
+
-->
|
| 349 |
+
|
| 350 |
+
<!--
|
| 351 |
+
### Downstream Usage (Sentence Transformers)
|
| 352 |
+
|
| 353 |
+
You can finetune this model on your own dataset.
|
| 354 |
+
|
| 355 |
+
<details><summary>Click to expand</summary>
|
| 356 |
+
|
| 357 |
+
</details>
|
| 358 |
+
-->
|
| 359 |
+
|
| 360 |
+
<!--
|
| 361 |
+
### Out-of-Scope Use
|
| 362 |
+
|
| 363 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 364 |
+
-->
|
| 365 |
+
|
| 366 |
+
## Evaluation
|
| 367 |
+
|
| 368 |
+
### Metrics
|
| 369 |
+
|
| 370 |
+
#### Information Retrieval
|
| 371 |
+
|
| 372 |
+
* Dataset: `dim_1024`
|
| 373 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 374 |
+
```json
|
| 375 |
+
{
|
| 376 |
+
"truncate_dim": 1024
|
| 377 |
+
}
|
| 378 |
+
```
|
| 379 |
+
|
| 380 |
+
| Metric | Value |
|
| 381 |
+
|:--------------------|:-----------|
|
| 382 |
+
| cosine_accuracy@1 | 0.341 |
|
| 383 |
+
| cosine_accuracy@3 | 0.5064 |
|
| 384 |
+
| cosine_accuracy@5 | 0.5721 |
|
| 385 |
+
| cosine_accuracy@10 | 0.6553 |
|
| 386 |
+
| cosine_precision@1 | 0.341 |
|
| 387 |
+
| cosine_precision@3 | 0.1688 |
|
| 388 |
+
| cosine_precision@5 | 0.1144 |
|
| 389 |
+
| cosine_precision@10 | 0.0655 |
|
| 390 |
+
| cosine_recall@1 | 0.341 |
|
| 391 |
+
| cosine_recall@3 | 0.5064 |
|
| 392 |
+
| cosine_recall@5 | 0.5721 |
|
| 393 |
+
| cosine_recall@10 | 0.6553 |
|
| 394 |
+
| **cosine_ndcg@10** | **0.4919** |
|
| 395 |
+
| cosine_mrr@10 | 0.4404 |
|
| 396 |
+
| cosine_map@100 | 0.4486 |
|
| 397 |
+
|
| 398 |
+
#### Information Retrieval
|
| 399 |
+
|
| 400 |
+
* Dataset: `dim_256`
|
| 401 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 402 |
+
```json
|
| 403 |
+
{
|
| 404 |
+
"truncate_dim": 256
|
| 405 |
+
}
|
| 406 |
+
```
|
| 407 |
+
|
| 408 |
+
| Metric | Value |
|
| 409 |
+
|:--------------------|:-----------|
|
| 410 |
+
| cosine_accuracy@1 | 0.2982 |
|
| 411 |
+
| cosine_accuracy@3 | 0.4491 |
|
| 412 |
+
| cosine_accuracy@5 | 0.5165 |
|
| 413 |
+
| cosine_accuracy@10 | 0.6008 |
|
| 414 |
+
| cosine_precision@1 | 0.2982 |
|
| 415 |
+
| cosine_precision@3 | 0.1497 |
|
| 416 |
+
| cosine_precision@5 | 0.1033 |
|
| 417 |
+
| cosine_precision@10 | 0.0601 |
|
| 418 |
+
| cosine_recall@1 | 0.2982 |
|
| 419 |
+
| cosine_recall@3 | 0.4491 |
|
| 420 |
+
| cosine_recall@5 | 0.5165 |
|
| 421 |
+
| cosine_recall@10 | 0.6008 |
|
| 422 |
+
| **cosine_ndcg@10** | **0.4414** |
|
| 423 |
+
| cosine_mrr@10 | 0.3913 |
|
| 424 |
+
| cosine_map@100 | 0.4002 |
|
| 425 |
+
|
| 426 |
+
<!--
|
| 427 |
+
## Bias, Risks and Limitations
|
| 428 |
+
|
| 429 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 430 |
+
-->
|
| 431 |
+
|
| 432 |
+
<!--
|
| 433 |
+
### Recommendations
|
| 434 |
+
|
| 435 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 436 |
+
-->
|
| 437 |
+
|
| 438 |
+
## Training Details
|
| 439 |
+
|
| 440 |
+
### Training Dataset
|
| 441 |
+
|
| 442 |
+
#### Unnamed Dataset
|
| 443 |
+
|
| 444 |
+
* Size: 79,716 training samples
|
| 445 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
| 446 |
+
* Approximate statistics based on the first 1000 samples:
|
| 447 |
+
| | anchor | positive |
|
| 448 |
+
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
| 449 |
+
| type | string | string |
|
| 450 |
+
| details | <ul><li>min: 4 tokens</li><li>mean: 24.06 tokens</li><li>max: 58 tokens</li></ul> | <ul><li>min: 192 tokens</li><li>mean: 192.0 tokens</li><li>max: 192 tokens</li></ul> |
|
| 451 |
+
* Samples:
|
| 452 |
+
| anchor | positive |
|
| 453 |
+
|:--------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 454 |
+
| <code>What are the differences in the rulings regarding the recitation of the verse "Sajdah" between different Islamic schools of thought?</code> | <code>في القرآن الكريم أربع عشرة آية فيها السجود: في الأعراف، والرعد، والنحل، والإسراء، ومريم، والحج، وفيها سجدتان في بعض المذاهب، وفي الفرقان، والنمل، والسجدة الم تنزيل و ص وفصلت، والنجم، والانشقاق، واقرأ، وزاد بعضهم آخر \n\nالحجر، والسجود عند الجمهور بقراءة آيات السجدة مسنون، وواجب عند الحنفية(). \n\nوتفصيل مواضع السجود، وعلى من يجب، وشروط السجود، كل ذلك تفصيله في مصطلح (سجود التلاوة). \n\n\n\n\n\n\n \n\nتلبية \n\nالتعريف: \n\n1 - التلبية لغة: إجابة المنادي، وهي إما في الحج وإما في غيره كالوليمة والتلبية في غير الحج. \n\nوقد سبق الكلام عنها في مصطلح (إجابة) ج 1 ص 251 وأما في الحج فالمراد بها</code> |
|
| 455 |
+
| <code>Who were some of the notable companions of Abu al-Sha'ra al-Darami mentioned in the text?</code> | <code>ترجمته في ج 1 ص 337. \n\n\n\nأبو العشراء الدارمي (؟ -؟) \n\nقيل: اسمه يسار بن بكر بن مسعود بن خولي بن حرملة، أبو العشراء، الدارمي، التميمي. روى عن أبيه، وعنه حماد بن سلمة. وذكر أبو موسى المديني أنه وقع له من روايته عن النبي خمسة عشر حديثا. قال ابن حجر: وقفت على جمع حديثه وكلها بأسانيد مظلمة. ذكره ابن حبان في الثقات. وقال ابن سعد: هو مجهول. قال البخاري: في اسمه وحديثه وسماعه من أبيه نظر. \n\n(تهذيب التهذيب 12/167). \n\nأبو القاسم القشيري: ر: القشيري. \n\n\n\nأبو قتادة: هو الحارث بن ربعي: \n\nتقدمت ترجمته في ج 2 ص 404. \n\n\n\nأبو الليث السمرقندي: هو نصر بن محمد: \n\nتقدمت ترجمته في ج 1 ص</code> |
|
| 456 |
+
| <code>What is the difference between using "أي" and "كل" or "كلما" in conditional statements regarding legal rulings?</code> | <code>أن حكم (أي) في التعليق كحكم (متى ومن وكلما) \n\nبمعنى أنه لو علق التصرف بنفي فعل بأي، كما لو علق الطلاق على نفي الدخول بأي، بأن قال: أي وقت لم تدخلي فيه الدار فأنت طالق، فإنه إن مضى زمن يمكنها فيه الدخول - ولم تدخل - فإنه يقع الطلاق بعده على الفور. \n\nوأما لو علق الطلاق على إيجاد فعل بأي، فلا تفيد الفور كغيرها من أدوات التعليق(). \n\nوجاء في تبيين الحقائق أن (أي) لا تعم بعموم الصفة فلو قال: أي امرأة أتزوجها فهي طالق، فإن ذلك يتحقق في امرأة واحدة فقط. \n\nبخلاف كلمتي (كل وكلما) فإنهما تفيدان عموم ما دخلتا عليه كما سيأتي(). \n\nز - كل وكلما : \n\n17 - كلمة (كل) تستعمل بمعنى</code> |
|
| 457 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
| 458 |
+
```json
|
| 459 |
+
{
|
| 460 |
+
"loss": "MultipleNegativesRankingLoss",
|
| 461 |
+
"matryoshka_dims": [
|
| 462 |
+
1024,
|
| 463 |
+
256
|
| 464 |
+
],
|
| 465 |
+
"matryoshka_weights": [
|
| 466 |
+
1,
|
| 467 |
+
1
|
| 468 |
+
],
|
| 469 |
+
"n_dims_per_step": -1
|
| 470 |
+
}
|
| 471 |
+
```
|
| 472 |
+
|
| 473 |
+
### Training Hyperparameters
|
| 474 |
+
#### Non-Default Hyperparameters
|
| 475 |
+
|
| 476 |
+
- `eval_strategy`: steps
|
| 477 |
+
- `per_device_train_batch_size`: 64
|
| 478 |
+
- `per_device_eval_batch_size`: 32
|
| 479 |
+
- `gradient_accumulation_steps`: 4
|
| 480 |
+
- `learning_rate`: 2e-05
|
| 481 |
+
- `num_train_epochs`: 2
|
| 482 |
+
- `lr_scheduler_type`: cosine
|
| 483 |
+
- `warmup_ratio`: 0.1
|
| 484 |
+
- `bf16`: True
|
| 485 |
+
- `tf32`: True
|
| 486 |
+
- `load_best_model_at_end`: True
|
| 487 |
+
- `gradient_checkpointing`: True
|
| 488 |
+
- `batch_sampler`: no_duplicates
|
| 489 |
+
|
| 490 |
+
#### All Hyperparameters
|
| 491 |
+
<details><summary>Click to expand</summary>
|
| 492 |
+
|
| 493 |
+
- `overwrite_output_dir`: False
|
| 494 |
+
- `do_predict`: False
|
| 495 |
+
- `eval_strategy`: steps
|
| 496 |
+
- `prediction_loss_only`: True
|
| 497 |
+
- `per_device_train_batch_size`: 64
|
| 498 |
+
- `per_device_eval_batch_size`: 32
|
| 499 |
+
- `per_gpu_train_batch_size`: None
|
| 500 |
+
- `per_gpu_eval_batch_size`: None
|
| 501 |
+
- `gradient_accumulation_steps`: 4
|
| 502 |
+
- `eval_accumulation_steps`: None
|
| 503 |
+
- `torch_empty_cache_steps`: None
|
| 504 |
+
- `learning_rate`: 2e-05
|
| 505 |
+
- `weight_decay`: 0.0
|
| 506 |
+
- `adam_beta1`: 0.9
|
| 507 |
+
- `adam_beta2`: 0.999
|
| 508 |
+
- `adam_epsilon`: 1e-08
|
| 509 |
+
- `max_grad_norm`: 1.0
|
| 510 |
+
- `num_train_epochs`: 2
|
| 511 |
+
- `max_steps`: -1
|
| 512 |
+
- `lr_scheduler_type`: cosine
|
| 513 |
+
- `lr_scheduler_kwargs`: {}
|
| 514 |
+
- `warmup_ratio`: 0.1
|
| 515 |
+
- `warmup_steps`: 0
|
| 516 |
+
- `log_level`: passive
|
| 517 |
+
- `log_level_replica`: warning
|
| 518 |
+
- `log_on_each_node`: True
|
| 519 |
+
- `logging_nan_inf_filter`: True
|
| 520 |
+
- `save_safetensors`: True
|
| 521 |
+
- `save_on_each_node`: False
|
| 522 |
+
- `save_only_model`: False
|
| 523 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 524 |
+
- `no_cuda`: False
|
| 525 |
+
- `use_cpu`: False
|
| 526 |
+
- `use_mps_device`: False
|
| 527 |
+
- `seed`: 42
|
| 528 |
+
- `data_seed`: None
|
| 529 |
+
- `jit_mode_eval`: False
|
| 530 |
+
- `use_ipex`: False
|
| 531 |
+
- `bf16`: True
|
| 532 |
+
- `fp16`: False
|
| 533 |
+
- `fp16_opt_level`: O1
|
| 534 |
+
- `half_precision_backend`: auto
|
| 535 |
+
- `bf16_full_eval`: False
|
| 536 |
+
- `fp16_full_eval`: False
|
| 537 |
+
- `tf32`: True
|
| 538 |
+
- `local_rank`: 0
|
| 539 |
+
- `ddp_backend`: None
|
| 540 |
+
- `tpu_num_cores`: None
|
| 541 |
+
- `tpu_metrics_debug`: False
|
| 542 |
+
- `debug`: []
|
| 543 |
+
- `dataloader_drop_last`: False
|
| 544 |
+
- `dataloader_num_workers`: 0
|
| 545 |
+
- `dataloader_prefetch_factor`: None
|
| 546 |
+
- `past_index`: -1
|
| 547 |
+
- `disable_tqdm`: False
|
| 548 |
+
- `remove_unused_columns`: True
|
| 549 |
+
- `label_names`: None
|
| 550 |
+
- `load_best_model_at_end`: True
|
| 551 |
+
- `ignore_data_skip`: False
|
| 552 |
+
- `fsdp`: []
|
| 553 |
+
- `fsdp_min_num_params`: 0
|
| 554 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 555 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 556 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 557 |
+
- `parallelism_config`: None
|
| 558 |
+
- `deepspeed`: None
|
| 559 |
+
- `label_smoothing_factor`: 0.0
|
| 560 |
+
- `optim`: adamw_torch_fused
|
| 561 |
+
- `optim_args`: None
|
| 562 |
+
- `adafactor`: False
|
| 563 |
+
- `group_by_length`: False
|
| 564 |
+
- `length_column_name`: length
|
| 565 |
+
- `ddp_find_unused_parameters`: None
|
| 566 |
+
- `ddp_bucket_cap_mb`: None
|
| 567 |
+
- `ddp_broadcast_buffers`: False
|
| 568 |
+
- `dataloader_pin_memory`: True
|
| 569 |
+
- `dataloader_persistent_workers`: False
|
| 570 |
+
- `skip_memory_metrics`: True
|
| 571 |
+
- `use_legacy_prediction_loop`: False
|
| 572 |
+
- `push_to_hub`: False
|
| 573 |
+
- `resume_from_checkpoint`: None
|
| 574 |
+
- `hub_model_id`: None
|
| 575 |
+
- `hub_strategy`: every_save
|
| 576 |
+
- `hub_private_repo`: None
|
| 577 |
+
- `hub_always_push`: False
|
| 578 |
+
- `hub_revision`: None
|
| 579 |
+
- `gradient_checkpointing`: True
|
| 580 |
+
- `gradient_checkpointing_kwargs`: None
|
| 581 |
+
- `include_inputs_for_metrics`: False
|
| 582 |
+
- `include_for_metrics`: []
|
| 583 |
+
- `eval_do_concat_batches`: True
|
| 584 |
+
- `fp16_backend`: auto
|
| 585 |
+
- `push_to_hub_model_id`: None
|
| 586 |
+
- `push_to_hub_organization`: None
|
| 587 |
+
- `mp_parameters`:
|
| 588 |
+
- `auto_find_batch_size`: False
|
| 589 |
+
- `full_determinism`: False
|
| 590 |
+
- `torchdynamo`: None
|
| 591 |
+
- `ray_scope`: last
|
| 592 |
+
- `ddp_timeout`: 1800
|
| 593 |
+
- `torch_compile`: False
|
| 594 |
+
- `torch_compile_backend`: None
|
| 595 |
+
- `torch_compile_mode`: None
|
| 596 |
+
- `include_tokens_per_second`: False
|
| 597 |
+
- `include_num_input_tokens_seen`: False
|
| 598 |
+
- `neftune_noise_alpha`: None
|
| 599 |
+
- `optim_target_modules`: None
|
| 600 |
+
- `batch_eval_metrics`: False
|
| 601 |
+
- `eval_on_start`: False
|
| 602 |
+
- `use_liger_kernel`: False
|
| 603 |
+
- `liger_kernel_config`: None
|
| 604 |
+
- `eval_use_gather_object`: False
|
| 605 |
+
- `average_tokens_across_devices`: False
|
| 606 |
+
- `prompts`: None
|
| 607 |
+
- `batch_sampler`: no_duplicates
|
| 608 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 609 |
+
- `router_mapping`: {}
|
| 610 |
+
- `learning_rate_mapping`: {}
|
| 611 |
+
|
| 612 |
+
</details>
|
| 613 |
+
|
| 614 |
+
### Training Logs
|
| 615 |
+
| Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_256_cosine_ndcg@10 |
|
| 616 |
+
|:------:|:----:|:-------------:|:-----------------------:|:----------------------:|
|
| 617 |
+
| 0.0321 | 10 | 2.4674 | - | - |
|
| 618 |
+
| 0.0642 | 20 | 2.2763 | - | - |
|
| 619 |
+
| 0.0963 | 30 | 1.9145 | - | - |
|
| 620 |
+
| 0.1284 | 40 | 1.6864 | - | - |
|
| 621 |
+
| 0.1605 | 50 | 1.5235 | 0.4153 | 0.3539 |
|
| 622 |
+
| 0.1926 | 60 | 1.4239 | - | - |
|
| 623 |
+
| 0.2247 | 70 | 1.3109 | - | - |
|
| 624 |
+
| 0.2568 | 80 | 1.2667 | - | - |
|
| 625 |
+
| 0.2889 | 90 | 1.2602 | - | - |
|
| 626 |
+
| 0.3210 | 100 | 1.2305 | 0.4525 | 0.3919 |
|
| 627 |
+
| 0.3531 | 110 | 1.1687 | - | - |
|
| 628 |
+
| 0.3852 | 120 | 1.147 | - | - |
|
| 629 |
+
| 0.4173 | 130 | 1.0961 | - | - |
|
| 630 |
+
| 0.4494 | 140 | 1.0522 | - | - |
|
| 631 |
+
| 0.4815 | 150 | 1.0472 | 0.4714 | 0.4134 |
|
| 632 |
+
| 0.5136 | 160 | 1.0128 | - | - |
|
| 633 |
+
| 0.5457 | 170 | 1.0101 | - | - |
|
| 634 |
+
| 0.5778 | 180 | 1.0731 | - | - |
|
| 635 |
+
| 0.6100 | 190 | 1.0003 | - | - |
|
| 636 |
+
| 0.6421 | 200 | 1.0544 | 0.4748 | 0.4251 |
|
| 637 |
+
| 0.6742 | 210 | 0.9778 | - | - |
|
| 638 |
+
| 0.7063 | 220 | 1.013 | - | - |
|
| 639 |
+
| 0.7384 | 230 | 1.0015 | - | - |
|
| 640 |
+
| 0.7705 | 240 | 0.9881 | - | - |
|
| 641 |
+
| 0.8026 | 250 | 1.0132 | 0.4822 | 0.4296 |
|
| 642 |
+
| 0.8347 | 260 | 0.96 | - | - |
|
| 643 |
+
| 0.8668 | 270 | 0.9993 | - | - |
|
| 644 |
+
| 0.8989 | 280 | 1.0048 | - | - |
|
| 645 |
+
| 0.9310 | 290 | 0.8957 | - | - |
|
| 646 |
+
| 0.9631 | 300 | 0.9568 | 0.4858 | 0.4352 |
|
| 647 |
+
| 0.9952 | 310 | 0.9017 | - | - |
|
| 648 |
+
| 1.0257 | 320 | 0.8178 | - | - |
|
| 649 |
+
| 1.0578 | 330 | 0.7772 | - | - |
|
| 650 |
+
| 1.0899 | 340 | 0.7431 | - | - |
|
| 651 |
+
| 1.1220 | 350 | 0.8291 | 0.4897 | 0.4395 |
|
| 652 |
+
| 1.1541 | 360 | 0.7911 | - | - |
|
| 653 |
+
| 1.1862 | 370 | 0.76 | - | - |
|
| 654 |
+
| 1.2183 | 380 | 0.7424 | - | - |
|
| 655 |
+
| 1.2504 | 390 | 0.7667 | - | - |
|
| 656 |
+
| 1.2825 | 400 | 0.8333 | 0.4916 | 0.4401 |
|
| 657 |
+
| 1.3146 | 410 | 0.6788 | - | - |
|
| 658 |
+
| 1.3467 | 420 | 0.7553 | - | - |
|
| 659 |
+
| 1.3788 | 430 | 0.7871 | - | - |
|
| 660 |
+
| 1.4109 | 440 | 0.7872 | - | - |
|
| 661 |
+
| 1.4430 | 450 | 0.7906 | 0.4921 | 0.4411 |
|
| 662 |
+
| 1.4751 | 460 | 0.7503 | - | - |
|
| 663 |
+
| 1.5072 | 470 | 0.7462 | - | - |
|
| 664 |
+
| 1.5393 | 480 | 0.7318 | - | - |
|
| 665 |
+
| 1.5714 | 490 | 0.7799 | - | - |
|
| 666 |
+
| 1.6035 | 500 | 0.7838 | 0.4913 | 0.4410 |
|
| 667 |
+
| 1.6356 | 510 | 0.7711 | - | - |
|
| 668 |
+
| 1.6677 | 520 | 0.7397 | - | - |
|
| 669 |
+
| 1.6998 | 530 | 0.7849 | - | - |
|
| 670 |
+
| 1.7319 | 540 | 0.8791 | - | - |
|
| 671 |
+
| 1.7640 | 550 | 0.7549 | 0.4919 | 0.4409 |
|
| 672 |
+
| 1.7961 | 560 | 0.7487 | - | - |
|
| 673 |
+
| 1.8283 | 570 | 0.7711 | - | - |
|
| 674 |
+
| 1.8604 | 580 | 0.7262 | - | - |
|
| 675 |
+
| 1.8925 | 590 | 0.7597 | - | - |
|
| 676 |
+
| 1.9246 | 600 | 0.7358 | 0.4919 | 0.4414 |
|
| 677 |
+
|
| 678 |
+
|
| 679 |
+
### Framework Versions
|
| 680 |
+
- Python: 3.11.13
|
| 681 |
+
- Sentence Transformers: 5.1.1
|
| 682 |
+
- Transformers: 4.56.2
|
| 683 |
+
- PyTorch: 2.8.0+cu128
|
| 684 |
+
- Accelerate: 1.10.1
|
| 685 |
+
- Datasets: 4.2.0
|
| 686 |
+
- Tokenizers: 0.22.1
|
| 687 |
+
|
| 688 |
+
## Citation
|
| 689 |
+
|
| 690 |
+
### BibTeX
|
| 691 |
+
|
| 692 |
+
#### Sentence Transformers
|
| 693 |
+
```bibtex
|
| 694 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 695 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 696 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 697 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 698 |
+
month = "11",
|
| 699 |
+
year = "2019",
|
| 700 |
+
publisher = "Association for Computational Linguistics",
|
| 701 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 702 |
+
}
|
| 703 |
+
```
|
| 704 |
+
|
| 705 |
+
#### MatryoshkaLoss
|
| 706 |
+
```bibtex
|
| 707 |
+
@misc{kusupati2024matryoshka,
|
| 708 |
+
title={Matryoshka Representation Learning},
|
| 709 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
| 710 |
+
year={2024},
|
| 711 |
+
eprint={2205.13147},
|
| 712 |
+
archivePrefix={arXiv},
|
| 713 |
+
primaryClass={cs.LG}
|
| 714 |
+
}
|
| 715 |
+
```
|
| 716 |
+
|
| 717 |
+
#### MultipleNegativesRankingLoss
|
| 718 |
+
```bibtex
|
| 719 |
+
@misc{henderson2017efficient,
|
| 720 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 721 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 722 |
+
year={2017},
|
| 723 |
+
eprint={1705.00652},
|
| 724 |
+
archivePrefix={arXiv},
|
| 725 |
+
primaryClass={cs.CL}
|
| 726 |
+
}
|
| 727 |
+
```
|
| 728 |
+
|
| 729 |
+
<!--
|
| 730 |
+
## Glossary
|
| 731 |
+
|
| 732 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 733 |
+
-->
|
| 734 |
+
|
| 735 |
+
<!--
|
| 736 |
+
## Model Card Authors
|
| 737 |
+
|
| 738 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 739 |
+
-->
|
| 740 |
+
|
| 741 |
+
<!--
|
| 742 |
+
## Model Card Contact
|
| 743 |
+
|
| 744 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 745 |
+
-->
|
added_tokens.json
ADDED
|
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"</think>": 151668,
|
| 3 |
+
"</tool_call>": 151658,
|
| 4 |
+
"</tool_response>": 151666,
|
| 5 |
+
"<think>": 151667,
|
| 6 |
+
"<tool_call>": 151657,
|
| 7 |
+
"<tool_response>": 151665,
|
| 8 |
+
"<|box_end|>": 151649,
|
| 9 |
+
"<|box_start|>": 151648,
|
| 10 |
+
"<|endoftext|>": 151643,
|
| 11 |
+
"<|file_sep|>": 151664,
|
| 12 |
+
"<|fim_middle|>": 151660,
|
| 13 |
+
"<|fim_pad|>": 151662,
|
| 14 |
+
"<|fim_prefix|>": 151659,
|
| 15 |
+
"<|fim_suffix|>": 151661,
|
| 16 |
+
"<|im_end|>": 151645,
|
| 17 |
+
"<|im_start|>": 151644,
|
| 18 |
+
"<|image_pad|>": 151655,
|
| 19 |
+
"<|object_ref_end|>": 151647,
|
| 20 |
+
"<|object_ref_start|>": 151646,
|
| 21 |
+
"<|quad_end|>": 151651,
|
| 22 |
+
"<|quad_start|>": 151650,
|
| 23 |
+
"<|repo_name|>": 151663,
|
| 24 |
+
"<|video_pad|>": 151656,
|
| 25 |
+
"<|vision_end|>": 151653,
|
| 26 |
+
"<|vision_pad|>": 151654,
|
| 27 |
+
"<|vision_start|>": 151652
|
| 28 |
+
}
|
chat_template.jinja
ADDED
|
@@ -0,0 +1,85 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{%- if tools %}
|
| 2 |
+
{{- '<|im_start|>system\n' }}
|
| 3 |
+
{%- if messages[0].role == 'system' %}
|
| 4 |
+
{{- messages[0].content + '\n\n' }}
|
| 5 |
+
{%- endif %}
|
| 6 |
+
{{- "# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
|
| 7 |
+
{%- for tool in tools %}
|
| 8 |
+
{{- "\n" }}
|
| 9 |
+
{{- tool | tojson }}
|
| 10 |
+
{%- endfor %}
|
| 11 |
+
{{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
|
| 12 |
+
{%- else %}
|
| 13 |
+
{%- if messages[0].role == 'system' %}
|
| 14 |
+
{{- '<|im_start|>system\n' + messages[0].content + '<|im_end|>\n' }}
|
| 15 |
+
{%- endif %}
|
| 16 |
+
{%- endif %}
|
| 17 |
+
{%- set ns = namespace(multi_step_tool=true, last_query_index=messages|length - 1) %}
|
| 18 |
+
{%- for message in messages[::-1] %}
|
| 19 |
+
{%- set index = (messages|length - 1) - loop.index0 %}
|
| 20 |
+
{%- if ns.multi_step_tool and message.role == "user" and not(message.content.startswith('<tool_response>') and message.content.endswith('</tool_response>')) %}
|
| 21 |
+
{%- set ns.multi_step_tool = false %}
|
| 22 |
+
{%- set ns.last_query_index = index %}
|
| 23 |
+
{%- endif %}
|
| 24 |
+
{%- endfor %}
|
| 25 |
+
{%- for message in messages %}
|
| 26 |
+
{%- if (message.role == "user") or (message.role == "system" and not loop.first) %}
|
| 27 |
+
{{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
|
| 28 |
+
{%- elif message.role == "assistant" %}
|
| 29 |
+
{%- set content = message.content %}
|
| 30 |
+
{%- set reasoning_content = '' %}
|
| 31 |
+
{%- if message.reasoning_content is defined and message.reasoning_content is not none %}
|
| 32 |
+
{%- set reasoning_content = message.reasoning_content %}
|
| 33 |
+
{%- else %}
|
| 34 |
+
{%- if '</think>' in message.content %}
|
| 35 |
+
{%- set content = message.content.split('</think>')[-1].lstrip('\n') %}
|
| 36 |
+
{%- set reasoning_content = message.content.split('</think>')[0].rstrip('\n').split('<think>')[-1].lstrip('\n') %}
|
| 37 |
+
{%- endif %}
|
| 38 |
+
{%- endif %}
|
| 39 |
+
{%- if loop.index0 > ns.last_query_index %}
|
| 40 |
+
{%- if loop.last or (not loop.last and reasoning_content) %}
|
| 41 |
+
{{- '<|im_start|>' + message.role + '\n<think>\n' + reasoning_content.strip('\n') + '\n</think>\n\n' + content.lstrip('\n') }}
|
| 42 |
+
{%- else %}
|
| 43 |
+
{{- '<|im_start|>' + message.role + '\n' + content }}
|
| 44 |
+
{%- endif %}
|
| 45 |
+
{%- else %}
|
| 46 |
+
{{- '<|im_start|>' + message.role + '\n' + content }}
|
| 47 |
+
{%- endif %}
|
| 48 |
+
{%- if message.tool_calls %}
|
| 49 |
+
{%- for tool_call in message.tool_calls %}
|
| 50 |
+
{%- if (loop.first and content) or (not loop.first) %}
|
| 51 |
+
{{- '\n' }}
|
| 52 |
+
{%- endif %}
|
| 53 |
+
{%- if tool_call.function %}
|
| 54 |
+
{%- set tool_call = tool_call.function %}
|
| 55 |
+
{%- endif %}
|
| 56 |
+
{{- '<tool_call>\n{"name": "' }}
|
| 57 |
+
{{- tool_call.name }}
|
| 58 |
+
{{- '", "arguments": ' }}
|
| 59 |
+
{%- if tool_call.arguments is string %}
|
| 60 |
+
{{- tool_call.arguments }}
|
| 61 |
+
{%- else %}
|
| 62 |
+
{{- tool_call.arguments | tojson }}
|
| 63 |
+
{%- endif %}
|
| 64 |
+
{{- '}\n</tool_call>' }}
|
| 65 |
+
{%- endfor %}
|
| 66 |
+
{%- endif %}
|
| 67 |
+
{{- '<|im_end|>\n' }}
|
| 68 |
+
{%- elif message.role == "tool" %}
|
| 69 |
+
{%- if loop.first or (messages[loop.index0 - 1].role != "tool") %}
|
| 70 |
+
{{- '<|im_start|>user' }}
|
| 71 |
+
{%- endif %}
|
| 72 |
+
{{- '\n<tool_response>\n' }}
|
| 73 |
+
{{- message.content }}
|
| 74 |
+
{{- '\n</tool_response>' }}
|
| 75 |
+
{%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
|
| 76 |
+
{{- '<|im_end|>\n' }}
|
| 77 |
+
{%- endif %}
|
| 78 |
+
{%- endif %}
|
| 79 |
+
{%- endfor %}
|
| 80 |
+
{%- if add_generation_prompt %}
|
| 81 |
+
{{- '<|im_start|>assistant\n' }}
|
| 82 |
+
{%- if enable_thinking is defined and enable_thinking is false %}
|
| 83 |
+
{{- '<think>\n\n</think>\n\n' }}
|
| 84 |
+
{%- endif %}
|
| 85 |
+
{%- endif %}
|
config.json
ADDED
|
@@ -0,0 +1,60 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"architectures": [
|
| 3 |
+
"Qwen3Model"
|
| 4 |
+
],
|
| 5 |
+
"attention_bias": false,
|
| 6 |
+
"attention_dropout": 0.0,
|
| 7 |
+
"bos_token_id": 151643,
|
| 8 |
+
"dtype": "bfloat16",
|
| 9 |
+
"eos_token_id": 151643,
|
| 10 |
+
"head_dim": 128,
|
| 11 |
+
"hidden_act": "silu",
|
| 12 |
+
"hidden_size": 1024,
|
| 13 |
+
"initializer_range": 0.02,
|
| 14 |
+
"intermediate_size": 3072,
|
| 15 |
+
"layer_types": [
|
| 16 |
+
"full_attention",
|
| 17 |
+
"full_attention",
|
| 18 |
+
"full_attention",
|
| 19 |
+
"full_attention",
|
| 20 |
+
"full_attention",
|
| 21 |
+
"full_attention",
|
| 22 |
+
"full_attention",
|
| 23 |
+
"full_attention",
|
| 24 |
+
"full_attention",
|
| 25 |
+
"full_attention",
|
| 26 |
+
"full_attention",
|
| 27 |
+
"full_attention",
|
| 28 |
+
"full_attention",
|
| 29 |
+
"full_attention",
|
| 30 |
+
"full_attention",
|
| 31 |
+
"full_attention",
|
| 32 |
+
"full_attention",
|
| 33 |
+
"full_attention",
|
| 34 |
+
"full_attention",
|
| 35 |
+
"full_attention",
|
| 36 |
+
"full_attention",
|
| 37 |
+
"full_attention",
|
| 38 |
+
"full_attention",
|
| 39 |
+
"full_attention",
|
| 40 |
+
"full_attention",
|
| 41 |
+
"full_attention",
|
| 42 |
+
"full_attention",
|
| 43 |
+
"full_attention"
|
| 44 |
+
],
|
| 45 |
+
"max_position_embeddings": 32768,
|
| 46 |
+
"max_window_layers": 28,
|
| 47 |
+
"model_type": "qwen3",
|
| 48 |
+
"num_attention_heads": 16,
|
| 49 |
+
"num_hidden_layers": 28,
|
| 50 |
+
"num_key_value_heads": 8,
|
| 51 |
+
"rms_norm_eps": 1e-06,
|
| 52 |
+
"rope_scaling": null,
|
| 53 |
+
"rope_theta": 1000000,
|
| 54 |
+
"sliding_window": null,
|
| 55 |
+
"tie_word_embeddings": true,
|
| 56 |
+
"transformers_version": "4.56.2",
|
| 57 |
+
"use_cache": true,
|
| 58 |
+
"use_sliding_window": false,
|
| 59 |
+
"vocab_size": 151669
|
| 60 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"model_type": "SentenceTransformer",
|
| 3 |
+
"__version__": {
|
| 4 |
+
"sentence_transformers": "5.1.1",
|
| 5 |
+
"transformers": "4.56.2",
|
| 6 |
+
"pytorch": "2.8.0+cu128"
|
| 7 |
+
},
|
| 8 |
+
"prompts": {
|
| 9 |
+
"query": "",
|
| 10 |
+
"document": ""
|
| 11 |
+
},
|
| 12 |
+
"default_prompt_name": null,
|
| 13 |
+
"similarity_fn_name": "cosine"
|
| 14 |
+
}
|
merges.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:ef13ca77481b71e79c033e19e57f13576c8145f5992e0df153c86d9e14d96cc1
|
| 3 |
+
size 1191586416
|
modules.json
ADDED
|
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
},
|
| 14 |
+
{
|
| 15 |
+
"idx": 2,
|
| 16 |
+
"name": "2",
|
| 17 |
+
"path": "2_Normalize",
|
| 18 |
+
"type": "sentence_transformers.models.Normalize"
|
| 19 |
+
}
|
| 20 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 192,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,31 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"additional_special_tokens": [
|
| 3 |
+
"<|im_start|>",
|
| 4 |
+
"<|im_end|>",
|
| 5 |
+
"<|object_ref_start|>",
|
| 6 |
+
"<|object_ref_end|>",
|
| 7 |
+
"<|box_start|>",
|
| 8 |
+
"<|box_end|>",
|
| 9 |
+
"<|quad_start|>",
|
| 10 |
+
"<|quad_end|>",
|
| 11 |
+
"<|vision_start|>",
|
| 12 |
+
"<|vision_end|>",
|
| 13 |
+
"<|vision_pad|>",
|
| 14 |
+
"<|image_pad|>",
|
| 15 |
+
"<|video_pad|>"
|
| 16 |
+
],
|
| 17 |
+
"eos_token": {
|
| 18 |
+
"content": "<|im_end|>",
|
| 19 |
+
"lstrip": false,
|
| 20 |
+
"normalized": false,
|
| 21 |
+
"rstrip": false,
|
| 22 |
+
"single_word": false
|
| 23 |
+
},
|
| 24 |
+
"pad_token": {
|
| 25 |
+
"content": "<|endoftext|>",
|
| 26 |
+
"lstrip": false,
|
| 27 |
+
"normalized": false,
|
| 28 |
+
"rstrip": false,
|
| 29 |
+
"single_word": false
|
| 30 |
+
}
|
| 31 |
+
}
|
tokenizer.json
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:5fdeb53f7184a683a77cdd86f31415be50aa95894c2d24072089572248abefe6
|
| 3 |
+
size 11423971
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,239 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"add_bos_token": false,
|
| 3 |
+
"add_prefix_space": false,
|
| 4 |
+
"added_tokens_decoder": {
|
| 5 |
+
"151643": {
|
| 6 |
+
"content": "<|endoftext|>",
|
| 7 |
+
"lstrip": false,
|
| 8 |
+
"normalized": false,
|
| 9 |
+
"rstrip": false,
|
| 10 |
+
"single_word": false,
|
| 11 |
+
"special": true
|
| 12 |
+
},
|
| 13 |
+
"151644": {
|
| 14 |
+
"content": "<|im_start|>",
|
| 15 |
+
"lstrip": false,
|
| 16 |
+
"normalized": false,
|
| 17 |
+
"rstrip": false,
|
| 18 |
+
"single_word": false,
|
| 19 |
+
"special": true
|
| 20 |
+
},
|
| 21 |
+
"151645": {
|
| 22 |
+
"content": "<|im_end|>",
|
| 23 |
+
"lstrip": false,
|
| 24 |
+
"normalized": false,
|
| 25 |
+
"rstrip": false,
|
| 26 |
+
"single_word": false,
|
| 27 |
+
"special": true
|
| 28 |
+
},
|
| 29 |
+
"151646": {
|
| 30 |
+
"content": "<|object_ref_start|>",
|
| 31 |
+
"lstrip": false,
|
| 32 |
+
"normalized": false,
|
| 33 |
+
"rstrip": false,
|
| 34 |
+
"single_word": false,
|
| 35 |
+
"special": true
|
| 36 |
+
},
|
| 37 |
+
"151647": {
|
| 38 |
+
"content": "<|object_ref_end|>",
|
| 39 |
+
"lstrip": false,
|
| 40 |
+
"normalized": false,
|
| 41 |
+
"rstrip": false,
|
| 42 |
+
"single_word": false,
|
| 43 |
+
"special": true
|
| 44 |
+
},
|
| 45 |
+
"151648": {
|
| 46 |
+
"content": "<|box_start|>",
|
| 47 |
+
"lstrip": false,
|
| 48 |
+
"normalized": false,
|
| 49 |
+
"rstrip": false,
|
| 50 |
+
"single_word": false,
|
| 51 |
+
"special": true
|
| 52 |
+
},
|
| 53 |
+
"151649": {
|
| 54 |
+
"content": "<|box_end|>",
|
| 55 |
+
"lstrip": false,
|
| 56 |
+
"normalized": false,
|
| 57 |
+
"rstrip": false,
|
| 58 |
+
"single_word": false,
|
| 59 |
+
"special": true
|
| 60 |
+
},
|
| 61 |
+
"151650": {
|
| 62 |
+
"content": "<|quad_start|>",
|
| 63 |
+
"lstrip": false,
|
| 64 |
+
"normalized": false,
|
| 65 |
+
"rstrip": false,
|
| 66 |
+
"single_word": false,
|
| 67 |
+
"special": true
|
| 68 |
+
},
|
| 69 |
+
"151651": {
|
| 70 |
+
"content": "<|quad_end|>",
|
| 71 |
+
"lstrip": false,
|
| 72 |
+
"normalized": false,
|
| 73 |
+
"rstrip": false,
|
| 74 |
+
"single_word": false,
|
| 75 |
+
"special": true
|
| 76 |
+
},
|
| 77 |
+
"151652": {
|
| 78 |
+
"content": "<|vision_start|>",
|
| 79 |
+
"lstrip": false,
|
| 80 |
+
"normalized": false,
|
| 81 |
+
"rstrip": false,
|
| 82 |
+
"single_word": false,
|
| 83 |
+
"special": true
|
| 84 |
+
},
|
| 85 |
+
"151653": {
|
| 86 |
+
"content": "<|vision_end|>",
|
| 87 |
+
"lstrip": false,
|
| 88 |
+
"normalized": false,
|
| 89 |
+
"rstrip": false,
|
| 90 |
+
"single_word": false,
|
| 91 |
+
"special": true
|
| 92 |
+
},
|
| 93 |
+
"151654": {
|
| 94 |
+
"content": "<|vision_pad|>",
|
| 95 |
+
"lstrip": false,
|
| 96 |
+
"normalized": false,
|
| 97 |
+
"rstrip": false,
|
| 98 |
+
"single_word": false,
|
| 99 |
+
"special": true
|
| 100 |
+
},
|
| 101 |
+
"151655": {
|
| 102 |
+
"content": "<|image_pad|>",
|
| 103 |
+
"lstrip": false,
|
| 104 |
+
"normalized": false,
|
| 105 |
+
"rstrip": false,
|
| 106 |
+
"single_word": false,
|
| 107 |
+
"special": true
|
| 108 |
+
},
|
| 109 |
+
"151656": {
|
| 110 |
+
"content": "<|video_pad|>",
|
| 111 |
+
"lstrip": false,
|
| 112 |
+
"normalized": false,
|
| 113 |
+
"rstrip": false,
|
| 114 |
+
"single_word": false,
|
| 115 |
+
"special": true
|
| 116 |
+
},
|
| 117 |
+
"151657": {
|
| 118 |
+
"content": "<tool_call>",
|
| 119 |
+
"lstrip": false,
|
| 120 |
+
"normalized": false,
|
| 121 |
+
"rstrip": false,
|
| 122 |
+
"single_word": false,
|
| 123 |
+
"special": false
|
| 124 |
+
},
|
| 125 |
+
"151658": {
|
| 126 |
+
"content": "</tool_call>",
|
| 127 |
+
"lstrip": false,
|
| 128 |
+
"normalized": false,
|
| 129 |
+
"rstrip": false,
|
| 130 |
+
"single_word": false,
|
| 131 |
+
"special": false
|
| 132 |
+
},
|
| 133 |
+
"151659": {
|
| 134 |
+
"content": "<|fim_prefix|>",
|
| 135 |
+
"lstrip": false,
|
| 136 |
+
"normalized": false,
|
| 137 |
+
"rstrip": false,
|
| 138 |
+
"single_word": false,
|
| 139 |
+
"special": false
|
| 140 |
+
},
|
| 141 |
+
"151660": {
|
| 142 |
+
"content": "<|fim_middle|>",
|
| 143 |
+
"lstrip": false,
|
| 144 |
+
"normalized": false,
|
| 145 |
+
"rstrip": false,
|
| 146 |
+
"single_word": false,
|
| 147 |
+
"special": false
|
| 148 |
+
},
|
| 149 |
+
"151661": {
|
| 150 |
+
"content": "<|fim_suffix|>",
|
| 151 |
+
"lstrip": false,
|
| 152 |
+
"normalized": false,
|
| 153 |
+
"rstrip": false,
|
| 154 |
+
"single_word": false,
|
| 155 |
+
"special": false
|
| 156 |
+
},
|
| 157 |
+
"151662": {
|
| 158 |
+
"content": "<|fim_pad|>",
|
| 159 |
+
"lstrip": false,
|
| 160 |
+
"normalized": false,
|
| 161 |
+
"rstrip": false,
|
| 162 |
+
"single_word": false,
|
| 163 |
+
"special": false
|
| 164 |
+
},
|
| 165 |
+
"151663": {
|
| 166 |
+
"content": "<|repo_name|>",
|
| 167 |
+
"lstrip": false,
|
| 168 |
+
"normalized": false,
|
| 169 |
+
"rstrip": false,
|
| 170 |
+
"single_word": false,
|
| 171 |
+
"special": false
|
| 172 |
+
},
|
| 173 |
+
"151664": {
|
| 174 |
+
"content": "<|file_sep|>",
|
| 175 |
+
"lstrip": false,
|
| 176 |
+
"normalized": false,
|
| 177 |
+
"rstrip": false,
|
| 178 |
+
"single_word": false,
|
| 179 |
+
"special": false
|
| 180 |
+
},
|
| 181 |
+
"151665": {
|
| 182 |
+
"content": "<tool_response>",
|
| 183 |
+
"lstrip": false,
|
| 184 |
+
"normalized": false,
|
| 185 |
+
"rstrip": false,
|
| 186 |
+
"single_word": false,
|
| 187 |
+
"special": false
|
| 188 |
+
},
|
| 189 |
+
"151666": {
|
| 190 |
+
"content": "</tool_response>",
|
| 191 |
+
"lstrip": false,
|
| 192 |
+
"normalized": false,
|
| 193 |
+
"rstrip": false,
|
| 194 |
+
"single_word": false,
|
| 195 |
+
"special": false
|
| 196 |
+
},
|
| 197 |
+
"151667": {
|
| 198 |
+
"content": "<think>",
|
| 199 |
+
"lstrip": false,
|
| 200 |
+
"normalized": false,
|
| 201 |
+
"rstrip": false,
|
| 202 |
+
"single_word": false,
|
| 203 |
+
"special": false
|
| 204 |
+
},
|
| 205 |
+
"151668": {
|
| 206 |
+
"content": "</think>",
|
| 207 |
+
"lstrip": false,
|
| 208 |
+
"normalized": false,
|
| 209 |
+
"rstrip": false,
|
| 210 |
+
"single_word": false,
|
| 211 |
+
"special": false
|
| 212 |
+
}
|
| 213 |
+
},
|
| 214 |
+
"additional_special_tokens": [
|
| 215 |
+
"<|im_start|>",
|
| 216 |
+
"<|im_end|>",
|
| 217 |
+
"<|object_ref_start|>",
|
| 218 |
+
"<|object_ref_end|>",
|
| 219 |
+
"<|box_start|>",
|
| 220 |
+
"<|box_end|>",
|
| 221 |
+
"<|quad_start|>",
|
| 222 |
+
"<|quad_end|>",
|
| 223 |
+
"<|vision_start|>",
|
| 224 |
+
"<|vision_end|>",
|
| 225 |
+
"<|vision_pad|>",
|
| 226 |
+
"<|image_pad|>",
|
| 227 |
+
"<|video_pad|>"
|
| 228 |
+
],
|
| 229 |
+
"bos_token": null,
|
| 230 |
+
"clean_up_tokenization_spaces": false,
|
| 231 |
+
"eos_token": "<|im_end|>",
|
| 232 |
+
"errors": "replace",
|
| 233 |
+
"extra_special_tokens": {},
|
| 234 |
+
"model_max_length": 131072,
|
| 235 |
+
"pad_token": "<|endoftext|>",
|
| 236 |
+
"split_special_tokens": false,
|
| 237 |
+
"tokenizer_class": "Qwen2Tokenizer",
|
| 238 |
+
"unk_token": null
|
| 239 |
+
}
|
vocab.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|