vsevolodl commited on
Commit
c07fd60
·
verified ·
1 Parent(s): 6818c1b

Upload folder using huggingface_hub

Browse files
.gitattributes CHANGED
@@ -1,35 +1,2 @@
1
- *.7z filter=lfs diff=lfs merge=lfs -text
2
- *.arrow filter=lfs diff=lfs merge=lfs -text
3
- *.bin filter=lfs diff=lfs merge=lfs -text
4
- *.bz2 filter=lfs diff=lfs merge=lfs -text
5
- *.ckpt filter=lfs diff=lfs merge=lfs -text
6
- *.ftz filter=lfs diff=lfs merge=lfs -text
7
- *.gz filter=lfs diff=lfs merge=lfs -text
8
- *.h5 filter=lfs diff=lfs merge=lfs -text
9
- *.joblib filter=lfs diff=lfs merge=lfs -text
10
- *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
- *.mlmodel filter=lfs diff=lfs merge=lfs -text
12
- *.model filter=lfs diff=lfs merge=lfs -text
13
- *.msgpack filter=lfs diff=lfs merge=lfs -text
14
- *.npy filter=lfs diff=lfs merge=lfs -text
15
- *.npz filter=lfs diff=lfs merge=lfs -text
16
- *.onnx filter=lfs diff=lfs merge=lfs -text
17
- *.ot filter=lfs diff=lfs merge=lfs -text
18
- *.parquet filter=lfs diff=lfs merge=lfs -text
19
- *.pb filter=lfs diff=lfs merge=lfs -text
20
- *.pickle filter=lfs diff=lfs merge=lfs -text
21
- *.pkl filter=lfs diff=lfs merge=lfs -text
22
- *.pt filter=lfs diff=lfs merge=lfs -text
23
- *.pth filter=lfs diff=lfs merge=lfs -text
24
- *.rar filter=lfs diff=lfs merge=lfs -text
25
  *.safetensors filter=lfs diff=lfs merge=lfs -text
26
- saved_model/**/* filter=lfs diff=lfs merge=lfs -text
27
- *.tar.* filter=lfs diff=lfs merge=lfs -text
28
- *.tar filter=lfs diff=lfs merge=lfs -text
29
- *.tflite filter=lfs diff=lfs merge=lfs -text
30
- *.tgz filter=lfs diff=lfs merge=lfs -text
31
- *.wasm filter=lfs diff=lfs merge=lfs -text
32
- *.xz filter=lfs diff=lfs merge=lfs -text
33
- *.zip filter=lfs diff=lfs merge=lfs -text
34
- *.zst filter=lfs diff=lfs merge=lfs -text
35
- *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  *.safetensors filter=lfs diff=lfs merge=lfs -text
2
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
 
 
 
 
 
 
 
 
 
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": true,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,745 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - multilingual
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:79716
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: Qwen/Qwen3-Embedding-0.6B
15
+ widget:
16
+ - source_sentence: Who were some of the scholars mentioned as having transmitted knowledge
17
+ from Hammad ibn Abi Qatada?
18
+ sentences:
19
+ - 'بن أبي ثابت وغيرهم. وعنه ابن المبارك وحسين بن علي \n\nالجعفي وعبد الله بن صالح
20
+ العجلي وأبو أحمد الزبيري وغيرهم. قال العجلي: ثقة، وقال أبو حنيفة: غلب حمزة الناس
21
+ على القرآن والفرائض. وقال الثوري: ما قرأ حمزة حرفا من كتاب الله إلا بأثر. قال
22
+ ابن حجر: انعقد الإجماع على تلقي قراءته بالقبول. لكن نقل صاحب المغني (1/492 ط 3)
23
+ عن أحمد أنه كان يكره قراءة حمزة والكسائي لما فيها من الكسر والإدغام والتكلف وزيادة
24
+ المد. (تهذيب التهذيب 3/27، وميزان الاعتدال 1/605، ووفيات الأعيان 1/167، والأعلام
25
+ 2/308). \n\nخ \n\nخباب بن الأرت (؟ - 37 ه): \n\nهو خباب بن الأرت بن جندلة بن سعد،
26
+ أبو يحيى أو أبو عبد'
27
+ - 'عين ودين على الغير - ولم نجوز بيع الدين لغير من هو عليه - بطل الصلح في الدين،
28
+ وفي العين القولان في تفريق الصفقة. \n\nولو مات شخص عن ابنين، والتركة ألفا درهم
29
+ ومائة دينار، وهي دين في ذمة الغير، فصالح أحدهما أخاه من الدين على ألفي درهم جاز؛
30
+ لأنه إذا كان في الذمة فلا ضرورة إلى تقدير المعاوضة فيه، فيجعل مستوفيا لأحد الألفين
31
+ ومعتاضا عن الدنانير الألف الآخر(). \n\nظهور دين على التركة بعد التخارج: \n\n20
32
+ - الأصل أن الدين يتعلق بالتركة، ويقدم سداده على تقسيم التركة؛ : من بعد وصية
33
+ يوصى بها أو دين(). \n\nلكن الفقهاء يختلفون في وقت ابتداء ملكية الوارث للتركة إذا
34
+ كانت مدينة. \n\nفعند'
35
+ - 'ولعل العام هو المتأخر الذي أريد به العموم، وينسخ به الخاص، وهذا هو الذي اختاره
36
+ القاضي، والأصح عندنا: تقديم الخاص وإن كان ما ذكره \n\nالقاضي ممكنا، ولكن تقدير
37
+ النسخ محتاج إلى الحكم بدخول الكافرة تحت اللفظ، ثم خروجه عنه، فهو إثبات وضع، ورفع
38
+ بالتوهم، وإرادة الخاص باللفظ العام غالب معتاد، بل هو الأكثر، والنسخ كالنادر، فلا
39
+ سبيل إلى تقديره بالتوهم، ويكاد يشهد لما ذكرناه من سير الصحابة والتابعين كثير،
40
+ فإنهم كانوا يسارعون إلى الحكم بالخاص على العام، وما اشتغلوا بطلب التاريخ والتقدم
41
+ والتأخر(). \n\nوقيل على الشذوذ: إنه يخصص من طريق المفهوم، فإن الرجال يقتضي مفهومه
42
+ قتل غيرهم، فإذا لم'
43
+ - source_sentence: كيف يؤثر حصول الشخص على قليل من النقد مقابل نصاب أكبر في الحول
44
+ التجاري؟
45
+ sentences:
46
+ - 'للنساء لما سبق بيانه، وكرهه الحنفية والحنابلة(). \n\nالتصفيق في الصلاة على وجه
47
+ اللعب : \n\n7 - قال الشافعية، وهو أحد قولي الحنابلة: إن التصفيق في الصلاة على
48
+ وجه اللعب يبطلها وإن كان قليلا، لمنافاة اللعب للصلاة. والأصل في ذلك حديث الصحيحين:
49
+ «من نابه شيء في صلاته فليسبح، وإنما التصفيق للنساء». ولمنافاته للصلاة. \n\nوالقول
50
+ الآخر للحنابلة: أنه لا يبطلها إن قل، وإن كثر أبطلها؛ لأنه عمل من غير جنسها، فأبطلها
51
+ كثيره عمدا كان أو سهوا(). \n\nوأما الحنفية فقد قالوا: إن ما يعمل عادة باليدين
52
+ يكون كثيرا، بخلاف ما يعمل باليد الواحدة فقد يكون قليلا، والعمل الكثير الذي ليس
53
+ من أفعال الصلاة ولا'
54
+ - 'موسى : واجعل لي وزيرا من أهلي هارون أخي اشدد به أزري وأشركه في أمري() فإذا جاز
55
+ ذلك في النبوة كان في الإمامة أولى، ولأن ما وكل إلى الإمام من تدبير الأمة لا يقدر
56
+ على مباشرة جميعه إلا باستنابة، ونيابة الوزير المشارك له في التدبير أجدى في تنفيذ
57
+ الأمور من تفرده بها، ليستظهر به على نفسه، وبها يكون أبعد من الزلل وأمنع من الخلل.
58
+ \n\nقال الماوردي وأبو يعلى ما مفاده:() يشترط في لفظ تولية وزارة التفويض اشتماله
59
+ على أمرين: \n\nأحدهما: عموم النظر، والثاني: \n\nالنيابة، فإن اقتصر على عموم النظر
60
+ دون النيابة فكان بولاية العهد أخص فلم تنعقد به الوزارة، وإن اقتصر به على النيابة
61
+ فقد أبهم ما'
62
+ - 'بالدراهم وباع بالدنانير، وقصد التجارة مستمر، وتم الحول، فلا زكاة إن لم تبلغ الدنانير
63
+ قيمة الدراهم. وهناك قول في المذهب أن التقويم يكون أبدا بغالب نقد البلد. \n\nالحالة
64
+ الثانية: أن يكون رأس المال نقدا دون النصاب، وفيه وجهان: \n\nأصحهما: أنه يقوم بذلك
65
+ النقد. \n\nوالثاني: أنه يقوم بغالب نقد البلد. ومحل الوجهين إن لم يملك ما يتم به
66
+ النصاب. فإن ملك قوم به. وصورته: أن يشتري بمائة درهم وهو يملك مائة أخرى، فلا خلاف
67
+ أن التقويم بالدراهم. لأنه اشترى ببعض ما انعقد عليه الحول، وابتدأ الحول من حين
68
+ ملك الدراهم. \n\nالحال الثالث: أن يملك بالنقدين جميعا. وهو على ثلاثة أضرب. \n\nالأول:
69
+ أن يكون كل'
70
+ - source_sentence: كيف يرى الشافعية حقيقة إسلام المميز كاستقلال من غير افتقار؟
71
+ sentences:
72
+ - 'ذلك عن عمر ، وبه يقول شريح والقاسم بن محمد وسالم بن عبد الله والأوزاعي وابن أبي
73
+ ليلى ومالك والشافعي وعبد الملك بن يعلى قاضي البصرة(). \n\nوفي كشاف القناع: إذا
74
+ عزر من وجب عليه التعزير وجب على الحاكم أن يشهره لمصلحة كشاهد زور ليجتنب(). \n\nوجاء
75
+ في التبصرة: التعزير لا يختص بالسوط واليد والحبس، وإنما ذلك موكول إلى اجتهاد الإمام.
76
+ قال أبو بكر الطرطوشي في أخبار الخلفاء المتقدمين: إنهم كانوا يعاملون الرجل على
77
+ قدره وقدر جنايته، فمنهم من يضرب، ومنهم من يحبس، ومنهم من يقام واقفا على قدميه
78
+ في المحافل، ومنهم من تنزع عمامته. \n\nقال القرافي: إن التعزير يختلف باختلاف الأعصار
79
+ والأمصار، فرب'
80
+ - 'الحنفية والمالكية والحنابلة وبعض الشافعية إلى أن إسلام المميز يصح استقلالا من
81
+ غير افتقار إلى حكم حاكم، أو تبعيته لأحد أبويه؛ لأن النبي دعا عليا إلى الإسلام،
82
+ وهو ما زال في صباه فأسلم، وكان أول من أسلم من الصبيان؛ ولقوله : «كل مولود يولد
83
+ على الفطرة»()؛ ولأن الإسلام عبادة محضة فصحت من الصبي العاقل كالصلاة والصوم والحج
84
+ وغيرها من العبادات. \n\nويرى الشافعية في الراجح عندهم أن إسلام المميز استقلالا
85
+ لا يصح؛ لأنه غير مكلف بدليل قوله : «رفع القلم عن ثلاثة عن النائم حتى يستيقظ وعن
86
+ الصبي حتى يحتلم وعن المجنون حتى يفيق» وفي رواية: «وعن الصبي حتى يبلغ»(). \n\nولأن
87
+ نطقه بالشهادتين إما'
88
+ - 'سنا ولا ظفرا، فلا يحل ما ذبح بهما أو صيد بهما. وفرق بعض الفقهاء بين السن والظفر
89
+ القائمين فمنع الذبح بهما، بخلاف المنزوعين. ولا يحل ما أزهقت نفسه بمثقل كالحجر
90
+ ونحوه. وينبغي تعاهد الآلة لتكون محددة فتريح الذبيحة. \n\nوإن كان المصيد به حيوانا
91
+ كالكلب والصقر ونحوهما اعتبر أن يكون معلما. ومعنى التعليم في الجارحة أن تصير بحيث
92
+ إذا أرسلت أطاعت، وإذا \n\nزجرت انزجرت، وقيل بأن تترك الأكل من الصيد ثلاث مرات.
93
+ \n\nويذكر الفقهاء تفصيل ذلك والخلاف فيه في مباحث الصيد ومباحث الذبح(). \n\nآلات
94
+ الجهاد: \n\n5 - يجب إعداد العدة للجهاد، وتجوز مقاتلة العدو بالسلاح المناسب لكل
95
+ عصر، وفي تحريقهم بالنار'
96
+ - source_sentence: ما هي الأحكام القانونية التي يحكم بها الفقهاء على عقد "المضاربة"
97
+ وما هو موقفهم منها؟
98
+ sentences:
99
+ - 'ما بعد البلوغ ما دامت الحاجة قائمة لذلك. \n\n53 - والعلة في هذا الترخيص تدريبهن
100
+ عن شأن تربية الأولاد، وتقدم النقل عن الحليمي: أن من العلة أيضا استئناس الصبيان
101
+ وفرحهم(). وأن ذلك يحصل لهم به النشاط والقوة والفرح وحسن النشوء ومزيد التعلم. فعلى
102
+ هذا لا يكون الأمر قاصرا على الإناث من \n\nالصغار، بل يتعداه إلى الذكور منهم أيضا.
103
+ وممن صرح به أبو يوسف: ففي القنية عنه: يجوز بيع اللعبة، وأن يلعب بها الصبيان().
104
+ \n\n54 - ومما يؤكد جواز اللعب المصورة للصبيان - بالإضافة إلى البنات - ما ثبت في
105
+ الصحيحين عن الربيع بنت معوذ الأنصارية أنها قالت: «أرسل رسول الله غداة عاشوراء
106
+ إلى قرى الأنصار'
107
+ - 'وأما ما يتصل بالإبضاع فإن الصيغة اللفظية قد تكون \n\nصريحة بلفظ الإبضاع، أو البضاعة،
108
+ وقد تكون غير صريحة، كأن يقول: خذ هذا المال مضاربة، على أن يكون الربح كله لي. وهذه
109
+ الصورة محل خلاف بين الفقهاء(). فذهب الحنابلة إلى أن هذا العقد لا يصح، واعتبروا
110
+ ذلك من باب التناقض؛ لأن قوله: «مضاربة» يقتضي الشركة في الربح، وقوله: «الربح كله
111
+ لي» يقتضي عدمها، فتناقض قوله، ففسدت المضاربة، ولأنه اشترط اختصاص أحدهما بالربح،
112
+ وهذا شرط يناقض العقد ففسد، ولأن اللفظ الصريح في بابه لا يكون كناية في غيره، فالمضاربة
113
+ لا تنقلب إبضاعا ولا قرضا. وعلى هذا اعتبروا هذا العقد مضاربة فاسدة(). \n\nوذهب
114
+ الحنفية'
115
+ - 'فقيه، أصولي، متكلم، نحوي، كان شيخ الشافعية في بلاد اليمن. تفقه على جماعات منهم:
116
+ خاله الإمام أبو الفتوح بن عثمان العمراني وزيد بن عبد الله اليافعي وغيرهما. \n\nمن
117
+ تصانيفه: «البيان» في فروع الشافعية، و«غرائب الوسيط»، و «الزوائد»، و «الأحداث»،
118
+ و «شرح الوسائل»، و «مختصر الإحياء»، و «مناقب الإمام الشافعي». \n\n(طبقات الشافعية
119
+ 4/324، وشذرات الذهب 4/185، والأعلام 9/180، ومعجم المؤلفين 13/196). \n\nيسيرة الصحابية
120
+ (؟ -؟) هي يسيرة أم ياسر. وقيل: يسيرة بنت ياسر، الصحابية المهاجرة . كانت من المهاجرات
121
+ الأول المبايعات. وقال \n\nابن سعد: أسلمت وبايعت وروت عن رسول الله (حديثا. \n\n(الإصابة'
122
+ - source_sentence: What is the procedure for increasing or decreasing penalties in
123
+ cases like those described in the text?
124
+ sentences:
125
+ - المحتاج شرح المنهاج»؛ و «الإيعاب شرح العباب المحيط بمعظم نصوص الشافعية والأصحاب»؛
126
+ و «الصواعق المحرقة في الرد على أهل البدع والزندقة»؛ و «إتحاف أهل الإسلام بخصوصيات
127
+ الصيام». \n\n(البدر الطالع 1 \\ 109؛ ومعجم المؤلفين 2 \\ 152؛ والأعلام للزركلي
128
+ 1 \\ 223) \n\nابن حزم (384 -456 ه) \n\nهو علي بن أحمد بن سعيد بن حزم الظاهري.
129
+ أبو محمد. عالم الأندلس في عصره. أصله من الفرس. أول من أسلم من أسلافه جد له كان
130
+ يدعى يزيد مولى ليزيد بن أبي سفيان . كانت لابن حزم الوزارة وتدبير المملكة، فانصرف
131
+ عنها إلى التأليف والعلم. كان فقيها حافظا يستنبط الأحكام من الكتاب والسنة على طريقة
132
+ أهل الظاهر، بعيدا عن
133
+ - 'آت بالدين في وقت كذا فأنا مسلم أو مؤمن، ونحو ذلك من الشروط التي يعلق عليها، فلا
134
+ يلزم إسلام إذا وجد ذلك الشرط، بل يبقى على كفره بسبب أن الدخول في الدين يعتمد الجزم
135
+ بصحته والمعلق ليس جازما(). \n\nأما العقود فيرى جمهور الفقهاء أن الأصل فيها أن
136
+ تكون منجزة وعلى وجه الخصوص في التمليكات والنكاح، وأجازوا التعليق في الطلاق بناء
137
+ على قاعدة من ملك التنجيز ملك التعليق(). \n\nومنهم من أجاز تعليق البيع في بعض صوره
138
+ كالشافعية. \n\nومنهم من أجاز تعليق العقود بإطلاق كبعض الحنابلة. \n\nقال ابن القيم:
139
+ إن تعليق العقود والفسوخ والتبرعات والالتزامات وغيرها بالشروط أمر قد تدعو إليه
140
+ الضرورة أو الحاجة'
141
+ - 'العلانية، ما لفلان هذا عليك ولا قبلك هذا المال الذي ادعاه، وهو كذا وكذا، ولا
142
+ شيء منه. وللقاضي أن يزيد على هذا في التغليظ وينقص، وليس عندهم التغليظ بالزمان
143
+ والمكان؛ لأن المقصود تعظيم المقسم به، وهو حاصل بدون ذلك. وفي إيجاب التغليظ حرج
144
+ على القاضي. وهم مجمعون على أن من وجهت إليه اليمين لا يعتبر ناكلا إن أبى التغليظ().
145
+ \n\nالتحالف: \n\n27 - مصدر تحالف، ومن معانيه في اللغة: طلب كل من المتداعيين يمين
146
+ الآخر. وهذا المعنى هو الموافق للشرع. غاية الأمر أن التحالف يكون أمام القضاء().
147
+ \n\nوالمراد هنا حلف المتخاصمين في مجلس القضاء. \n\nإذا اختلف البائع والمشتري في
148
+ مقدار الثمن أو المبيع أو'
149
+ pipeline_tag: sentence-similarity
150
+ library_name: sentence-transformers
151
+ metrics:
152
+ - cosine_accuracy@1
153
+ - cosine_accuracy@3
154
+ - cosine_accuracy@5
155
+ - cosine_accuracy@10
156
+ - cosine_precision@1
157
+ - cosine_precision@3
158
+ - cosine_precision@5
159
+ - cosine_precision@10
160
+ - cosine_recall@1
161
+ - cosine_recall@3
162
+ - cosine_recall@5
163
+ - cosine_recall@10
164
+ - cosine_ndcg@10
165
+ - cosine_mrr@10
166
+ - cosine_map@100
167
+ model-index:
168
+ - name: Qwen/Qwen3-Embedding-0.6B
169
+ results:
170
+ - task:
171
+ type: information-retrieval
172
+ name: Information Retrieval
173
+ dataset:
174
+ name: dim 1024
175
+ type: dim_1024
176
+ metrics:
177
+ - type: cosine_accuracy@1
178
+ value: 0.3410022245638684
179
+ name: Cosine Accuracy@1
180
+ - type: cosine_accuracy@3
181
+ value: 0.5064395269874722
182
+ name: Cosine Accuracy@3
183
+ - type: cosine_accuracy@5
184
+ value: 0.5721227022596885
185
+ name: Cosine Accuracy@5
186
+ - type: cosine_accuracy@10
187
+ value: 0.655309682706943
188
+ name: Cosine Accuracy@10
189
+ - type: cosine_precision@1
190
+ value: 0.3410022245638684
191
+ name: Cosine Precision@1
192
+ - type: cosine_precision@3
193
+ value: 0.1688131756624907
194
+ name: Cosine Precision@3
195
+ - type: cosine_precision@5
196
+ value: 0.11442454045193769
197
+ name: Cosine Precision@5
198
+ - type: cosine_precision@10
199
+ value: 0.0655309682706943
200
+ name: Cosine Precision@10
201
+ - type: cosine_recall@1
202
+ value: 0.3410022245638684
203
+ name: Cosine Recall@1
204
+ - type: cosine_recall@3
205
+ value: 0.5064395269874722
206
+ name: Cosine Recall@3
207
+ - type: cosine_recall@5
208
+ value: 0.5721227022596885
209
+ name: Cosine Recall@5
210
+ - type: cosine_recall@10
211
+ value: 0.655309682706943
212
+ name: Cosine Recall@10
213
+ - type: cosine_ndcg@10
214
+ value: 0.4919469504004404
215
+ name: Cosine Ndcg@10
216
+ - type: cosine_mrr@10
217
+ value: 0.4404047330987915
218
+ name: Cosine Mrr@10
219
+ - type: cosine_map@100
220
+ value: 0.44857536994508135
221
+ name: Cosine Map@100
222
+ - task:
223
+ type: information-retrieval
224
+ name: Information Retrieval
225
+ dataset:
226
+ name: dim 256
227
+ type: dim_256
228
+ metrics:
229
+ - type: cosine_accuracy@1
230
+ value: 0.2982086406743941
231
+ name: Cosine Accuracy@1
232
+ - type: cosine_accuracy@3
233
+ value: 0.4490691956445381
234
+ name: Cosine Accuracy@3
235
+ - type: cosine_accuracy@5
236
+ value: 0.5165086055497015
237
+ name: Cosine Accuracy@5
238
+ - type: cosine_accuracy@10
239
+ value: 0.6008078679311556
240
+ name: Cosine Accuracy@10
241
+ - type: cosine_precision@1
242
+ value: 0.2982086406743941
243
+ name: Cosine Precision@1
244
+ - type: cosine_precision@3
245
+ value: 0.14968973188151272
246
+ name: Cosine Precision@3
247
+ - type: cosine_precision@5
248
+ value: 0.10330172110994028
249
+ name: Cosine Precision@5
250
+ - type: cosine_precision@10
251
+ value: 0.060080786793115556
252
+ name: Cosine Precision@10
253
+ - type: cosine_recall@1
254
+ value: 0.2982086406743941
255
+ name: Cosine Recall@1
256
+ - type: cosine_recall@3
257
+ value: 0.4490691956445381
258
+ name: Cosine Recall@3
259
+ - type: cosine_recall@5
260
+ value: 0.5165086055497015
261
+ name: Cosine Recall@5
262
+ - type: cosine_recall@10
263
+ value: 0.6008078679311556
264
+ name: Cosine Recall@10
265
+ - type: cosine_ndcg@10
266
+ value: 0.44139225396972825
267
+ name: Cosine Ndcg@10
268
+ - type: cosine_mrr@10
269
+ value: 0.39132710474034305
270
+ name: Cosine Mrr@10
271
+ - type: cosine_map@100
272
+ value: 0.40018603040672085
273
+ name: Cosine Map@100
274
+ ---
275
+
276
+ # Qwen/Qwen3-Embedding-0.6B
277
+
278
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
279
+
280
+ ## Model Details
281
+
282
+ ### Model Description
283
+ - **Model Type:** Sentence Transformer
284
+ - **Base model:** [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B) <!-- at revision c54f2e6e80b2d7b7de06f51cec4959f6b3e03418 -->
285
+ - **Maximum Sequence Length:** 192 tokens
286
+ - **Output Dimensionality:** 1024 dimensions
287
+ - **Similarity Function:** Cosine Similarity
288
+ <!-- - **Training Dataset:** Unknown -->
289
+ - **Language:** multilingual
290
+ - **License:** apache-2.0
291
+
292
+ ### Model Sources
293
+
294
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
295
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
296
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
297
+
298
+ ### Full Model Architecture
299
+
300
+ ```
301
+ SentenceTransformer(
302
+ (0): Transformer({'max_seq_length': 192, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
303
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
304
+ (2): Normalize()
305
+ )
306
+ ```
307
+
308
+ ## Usage
309
+
310
+ ### Direct Usage (Sentence Transformers)
311
+
312
+ First install the Sentence Transformers library:
313
+
314
+ ```bash
315
+ pip install -U sentence-transformers
316
+ ```
317
+
318
+ Then you can load this model and run inference.
319
+ ```python
320
+ from sentence_transformers import SentenceTransformer
321
+
322
+ # Download from the 🤗 Hub
323
+ model = SentenceTransformer("sentence_transformers_model_id")
324
+ # Run inference
325
+ sentences = [
326
+ 'What is the procedure for increasing or decreasing penalties in cases like those described in the text?',
327
+ 'العلانية، ما لفلان هذا عليك ولا قبلك هذا المال الذي ادعاه، وهو كذا وكذا، ولا شيء منه. وللقاضي أن يزيد على هذا في التغليظ وينقص، وليس عندهم التغليظ بالزمان والمكان؛ لأن المقصود تعظيم المقسم به، وهو حاصل بدون ذلك. وفي إيجاب التغليظ حرج على القاضي. وهم مجمعون على أن من وجهت إليه اليمين لا يعتبر ناكلا إن أبى التغليظ(). \\n\\nالتحالف: \\n\\n27 - مصدر تحالف، ومن معانيه في اللغة: طلب كل من المتداعيين يمين الآخر. وهذا المعنى هو الموافق للشرع. غاية الأمر أن التحالف يكون أمام القضاء(). \\n\\nوالمراد هنا حلف المتخاصمين في مجلس القضاء. \\n\\nإذا اختلف البائع والمشتري في مقدار الثمن أو المبيع أو',
328
+ 'المحتاج شرح المنهاج»؛ و «الإيعاب شرح العباب المحيط بمعظم نصوص الشافعية والأصحاب»؛ و «الصواعق المحرقة في الرد على أهل البدع والزندقة»؛ و «إتحاف أهل الإسلام بخصوصيات الصيام». \\n\\n(البدر الطالع 1 \\\\ 109؛ ومعجم المؤلفين 2 \\\\ 152؛ والأعلام للزركلي 1 \\\\ 223) \\n\\nابن حزم (384 -456 ه) \\n\\nهو علي بن أحمد بن سعيد بن حزم الظاهري. أبو محمد. عالم الأندلس في عصره. أصله من الفرس. أول من أسلم من أسلافه جد له كان يدعى يزيد مولى ليزيد بن أبي سفيان . كانت لابن حزم الوزارة وتدبير المملكة، فانصرف عنها إلى التأليف والعلم. كان فقيها حافظا يستنبط الأحكام من الكتاب والسنة على طريقة أهل الظاهر، بعيدا عن',
329
+ ]
330
+ embeddings = model.encode(sentences)
331
+ print(embeddings.shape)
332
+ # [3, 1024]
333
+
334
+ # Get the similarity scores for the embeddings
335
+ similarities = model.similarity(embeddings, embeddings)
336
+ print(similarities)
337
+ # tensor([[ 1.0000, 0.2793, -0.0995],
338
+ # [ 0.2793, 1.0000, -0.1603],
339
+ # [-0.0995, -0.1603, 1.0000]])
340
+ ```
341
+
342
+ <!--
343
+ ### Direct Usage (Transformers)
344
+
345
+ <details><summary>Click to see the direct usage in Transformers</summary>
346
+
347
+ </details>
348
+ -->
349
+
350
+ <!--
351
+ ### Downstream Usage (Sentence Transformers)
352
+
353
+ You can finetune this model on your own dataset.
354
+
355
+ <details><summary>Click to expand</summary>
356
+
357
+ </details>
358
+ -->
359
+
360
+ <!--
361
+ ### Out-of-Scope Use
362
+
363
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
364
+ -->
365
+
366
+ ## Evaluation
367
+
368
+ ### Metrics
369
+
370
+ #### Information Retrieval
371
+
372
+ * Dataset: `dim_1024`
373
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
374
+ ```json
375
+ {
376
+ "truncate_dim": 1024
377
+ }
378
+ ```
379
+
380
+ | Metric | Value |
381
+ |:--------------------|:-----------|
382
+ | cosine_accuracy@1 | 0.341 |
383
+ | cosine_accuracy@3 | 0.5064 |
384
+ | cosine_accuracy@5 | 0.5721 |
385
+ | cosine_accuracy@10 | 0.6553 |
386
+ | cosine_precision@1 | 0.341 |
387
+ | cosine_precision@3 | 0.1688 |
388
+ | cosine_precision@5 | 0.1144 |
389
+ | cosine_precision@10 | 0.0655 |
390
+ | cosine_recall@1 | 0.341 |
391
+ | cosine_recall@3 | 0.5064 |
392
+ | cosine_recall@5 | 0.5721 |
393
+ | cosine_recall@10 | 0.6553 |
394
+ | **cosine_ndcg@10** | **0.4919** |
395
+ | cosine_mrr@10 | 0.4404 |
396
+ | cosine_map@100 | 0.4486 |
397
+
398
+ #### Information Retrieval
399
+
400
+ * Dataset: `dim_256`
401
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
402
+ ```json
403
+ {
404
+ "truncate_dim": 256
405
+ }
406
+ ```
407
+
408
+ | Metric | Value |
409
+ |:--------------------|:-----------|
410
+ | cosine_accuracy@1 | 0.2982 |
411
+ | cosine_accuracy@3 | 0.4491 |
412
+ | cosine_accuracy@5 | 0.5165 |
413
+ | cosine_accuracy@10 | 0.6008 |
414
+ | cosine_precision@1 | 0.2982 |
415
+ | cosine_precision@3 | 0.1497 |
416
+ | cosine_precision@5 | 0.1033 |
417
+ | cosine_precision@10 | 0.0601 |
418
+ | cosine_recall@1 | 0.2982 |
419
+ | cosine_recall@3 | 0.4491 |
420
+ | cosine_recall@5 | 0.5165 |
421
+ | cosine_recall@10 | 0.6008 |
422
+ | **cosine_ndcg@10** | **0.4414** |
423
+ | cosine_mrr@10 | 0.3913 |
424
+ | cosine_map@100 | 0.4002 |
425
+
426
+ <!--
427
+ ## Bias, Risks and Limitations
428
+
429
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
430
+ -->
431
+
432
+ <!--
433
+ ### Recommendations
434
+
435
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
436
+ -->
437
+
438
+ ## Training Details
439
+
440
+ ### Training Dataset
441
+
442
+ #### Unnamed Dataset
443
+
444
+ * Size: 79,716 training samples
445
+ * Columns: <code>anchor</code> and <code>positive</code>
446
+ * Approximate statistics based on the first 1000 samples:
447
+ | | anchor | positive |
448
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
449
+ | type | string | string |
450
+ | details | <ul><li>min: 4 tokens</li><li>mean: 24.06 tokens</li><li>max: 58 tokens</li></ul> | <ul><li>min: 192 tokens</li><li>mean: 192.0 tokens</li><li>max: 192 tokens</li></ul> |
451
+ * Samples:
452
+ | anchor | positive |
453
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
454
+ | <code>What are the differences in the rulings regarding the recitation of the verse "Sajdah" between different Islamic schools of thought?</code> | <code>في القرآن الكريم أربع عشرة آية فيها السجود: في الأعراف، والرعد، والنحل، والإسراء، ومريم، والحج، وفيها سجدتان في بعض المذاهب، وفي الفرقان، والنمل، والسجدة الم تنزيل و ص وفصلت، والنجم، والانشقاق، واقرأ، وزاد بعضهم آخر \n\nالحجر، والسجود عند الجمهور بقراءة آيات السجدة مسنون، وواجب عند الحنفية(). \n\nوتفصيل مواضع السجود، وعلى من يجب، وشروط السجود، كل ذلك تفصيله في مصطلح (سجود التلاوة). \n\n\n\n\n\n\n \n\nتلبية \n\nالتعريف: \n\n1 - التلبية لغة: إجابة المنادي، وهي إما في الحج وإما في غيره كالوليمة والتلبية في غير الحج. \n\nوقد سبق الكلام عنها في مصطلح (إجابة) ج 1 ص 251 وأما في الحج فالمراد بها</code> |
455
+ | <code>Who were some of the notable companions of Abu al-Sha'ra al-Darami mentioned in the text?</code> | <code>ترجمته في ج 1 ص 337. \n\n\n\nأبو العشراء الدارمي (؟ -؟) \n\nقيل: اسمه يسار بن بكر بن مسعود بن خولي بن حرملة، أبو العشراء، الدارمي، التميمي. روى عن أبيه، وعنه حماد بن سلمة. وذكر أبو موسى المديني أنه وقع له من روايته عن النبي خمسة عشر حديثا. قال ابن حجر: وقفت على جمع حديثه وكلها بأسانيد مظلمة. ذكره ابن حبان في الثقات. وقال ابن سعد: هو مجهول. قال البخاري: في اسمه وحديثه وسماعه من أبيه نظر. \n\n(تهذيب التهذيب 12/167). \n\nأبو القاسم القشيري: ر: القشيري. \n\n\n\nأبو قتادة: هو الحارث بن ربعي: \n\nتقدمت ترجمته في ج 2 ص 404. \n\n\n\nأبو الليث السمرقندي: هو نصر بن محمد: \n\nتقدمت ترجمته في ج 1 ص</code> |
456
+ | <code>What is the difference between using "أي" and "كل" or "كلما" in conditional statements regarding legal rulings?</code> | <code>أن حكم (أي) في التعليق كحكم (متى ومن وكلما) \n\nبمعنى أنه لو علق التصرف بنفي فعل بأي، كما لو علق الطلاق على نفي الدخول بأي، بأن قال: أي وقت لم تدخلي فيه الدار فأنت طالق، فإنه إن مضى زمن يمكنها فيه الدخول - ولم تدخل - فإنه يقع الطلاق بعده على الفور. \n\nوأما لو علق الطلاق على إيجاد فعل بأي، فلا تفيد الفور كغيرها من أدوات التعليق(). \n\nوجاء في تبيين الحقائق أن (أي) لا تعم بعموم الصفة فلو قال: أي امرأة أتزوجها فهي طالق، فإن ذلك يتحقق في امرأة واحدة فقط. \n\nبخلاف كلمتي (كل وكلما) فإنهما تفيدان عموم ما دخلتا عليه كما سيأتي(). \n\nز - كل وكلما : \n\n17 - كلمة (كل) تستعمل بمعنى</code> |
457
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
458
+ ```json
459
+ {
460
+ "loss": "MultipleNegativesRankingLoss",
461
+ "matryoshka_dims": [
462
+ 1024,
463
+ 256
464
+ ],
465
+ "matryoshka_weights": [
466
+ 1,
467
+ 1
468
+ ],
469
+ "n_dims_per_step": -1
470
+ }
471
+ ```
472
+
473
+ ### Training Hyperparameters
474
+ #### Non-Default Hyperparameters
475
+
476
+ - `eval_strategy`: steps
477
+ - `per_device_train_batch_size`: 64
478
+ - `per_device_eval_batch_size`: 32
479
+ - `gradient_accumulation_steps`: 4
480
+ - `learning_rate`: 2e-05
481
+ - `num_train_epochs`: 2
482
+ - `lr_scheduler_type`: cosine
483
+ - `warmup_ratio`: 0.1
484
+ - `bf16`: True
485
+ - `tf32`: True
486
+ - `load_best_model_at_end`: True
487
+ - `gradient_checkpointing`: True
488
+ - `batch_sampler`: no_duplicates
489
+
490
+ #### All Hyperparameters
491
+ <details><summary>Click to expand</summary>
492
+
493
+ - `overwrite_output_dir`: False
494
+ - `do_predict`: False
495
+ - `eval_strategy`: steps
496
+ - `prediction_loss_only`: True
497
+ - `per_device_train_batch_size`: 64
498
+ - `per_device_eval_batch_size`: 32
499
+ - `per_gpu_train_batch_size`: None
500
+ - `per_gpu_eval_batch_size`: None
501
+ - `gradient_accumulation_steps`: 4
502
+ - `eval_accumulation_steps`: None
503
+ - `torch_empty_cache_steps`: None
504
+ - `learning_rate`: 2e-05
505
+ - `weight_decay`: 0.0
506
+ - `adam_beta1`: 0.9
507
+ - `adam_beta2`: 0.999
508
+ - `adam_epsilon`: 1e-08
509
+ - `max_grad_norm`: 1.0
510
+ - `num_train_epochs`: 2
511
+ - `max_steps`: -1
512
+ - `lr_scheduler_type`: cosine
513
+ - `lr_scheduler_kwargs`: {}
514
+ - `warmup_ratio`: 0.1
515
+ - `warmup_steps`: 0
516
+ - `log_level`: passive
517
+ - `log_level_replica`: warning
518
+ - `log_on_each_node`: True
519
+ - `logging_nan_inf_filter`: True
520
+ - `save_safetensors`: True
521
+ - `save_on_each_node`: False
522
+ - `save_only_model`: False
523
+ - `restore_callback_states_from_checkpoint`: False
524
+ - `no_cuda`: False
525
+ - `use_cpu`: False
526
+ - `use_mps_device`: False
527
+ - `seed`: 42
528
+ - `data_seed`: None
529
+ - `jit_mode_eval`: False
530
+ - `use_ipex`: False
531
+ - `bf16`: True
532
+ - `fp16`: False
533
+ - `fp16_opt_level`: O1
534
+ - `half_precision_backend`: auto
535
+ - `bf16_full_eval`: False
536
+ - `fp16_full_eval`: False
537
+ - `tf32`: True
538
+ - `local_rank`: 0
539
+ - `ddp_backend`: None
540
+ - `tpu_num_cores`: None
541
+ - `tpu_metrics_debug`: False
542
+ - `debug`: []
543
+ - `dataloader_drop_last`: False
544
+ - `dataloader_num_workers`: 0
545
+ - `dataloader_prefetch_factor`: None
546
+ - `past_index`: -1
547
+ - `disable_tqdm`: False
548
+ - `remove_unused_columns`: True
549
+ - `label_names`: None
550
+ - `load_best_model_at_end`: True
551
+ - `ignore_data_skip`: False
552
+ - `fsdp`: []
553
+ - `fsdp_min_num_params`: 0
554
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
555
+ - `fsdp_transformer_layer_cls_to_wrap`: None
556
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
557
+ - `parallelism_config`: None
558
+ - `deepspeed`: None
559
+ - `label_smoothing_factor`: 0.0
560
+ - `optim`: adamw_torch_fused
561
+ - `optim_args`: None
562
+ - `adafactor`: False
563
+ - `group_by_length`: False
564
+ - `length_column_name`: length
565
+ - `ddp_find_unused_parameters`: None
566
+ - `ddp_bucket_cap_mb`: None
567
+ - `ddp_broadcast_buffers`: False
568
+ - `dataloader_pin_memory`: True
569
+ - `dataloader_persistent_workers`: False
570
+ - `skip_memory_metrics`: True
571
+ - `use_legacy_prediction_loop`: False
572
+ - `push_to_hub`: False
573
+ - `resume_from_checkpoint`: None
574
+ - `hub_model_id`: None
575
+ - `hub_strategy`: every_save
576
+ - `hub_private_repo`: None
577
+ - `hub_always_push`: False
578
+ - `hub_revision`: None
579
+ - `gradient_checkpointing`: True
580
+ - `gradient_checkpointing_kwargs`: None
581
+ - `include_inputs_for_metrics`: False
582
+ - `include_for_metrics`: []
583
+ - `eval_do_concat_batches`: True
584
+ - `fp16_backend`: auto
585
+ - `push_to_hub_model_id`: None
586
+ - `push_to_hub_organization`: None
587
+ - `mp_parameters`:
588
+ - `auto_find_batch_size`: False
589
+ - `full_determinism`: False
590
+ - `torchdynamo`: None
591
+ - `ray_scope`: last
592
+ - `ddp_timeout`: 1800
593
+ - `torch_compile`: False
594
+ - `torch_compile_backend`: None
595
+ - `torch_compile_mode`: None
596
+ - `include_tokens_per_second`: False
597
+ - `include_num_input_tokens_seen`: False
598
+ - `neftune_noise_alpha`: None
599
+ - `optim_target_modules`: None
600
+ - `batch_eval_metrics`: False
601
+ - `eval_on_start`: False
602
+ - `use_liger_kernel`: False
603
+ - `liger_kernel_config`: None
604
+ - `eval_use_gather_object`: False
605
+ - `average_tokens_across_devices`: False
606
+ - `prompts`: None
607
+ - `batch_sampler`: no_duplicates
608
+ - `multi_dataset_batch_sampler`: proportional
609
+ - `router_mapping`: {}
610
+ - `learning_rate_mapping`: {}
611
+
612
+ </details>
613
+
614
+ ### Training Logs
615
+ | Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_256_cosine_ndcg@10 |
616
+ |:------:|:----:|:-------------:|:-----------------------:|:----------------------:|
617
+ | 0.0321 | 10 | 2.4674 | - | - |
618
+ | 0.0642 | 20 | 2.2763 | - | - |
619
+ | 0.0963 | 30 | 1.9145 | - | - |
620
+ | 0.1284 | 40 | 1.6864 | - | - |
621
+ | 0.1605 | 50 | 1.5235 | 0.4153 | 0.3539 |
622
+ | 0.1926 | 60 | 1.4239 | - | - |
623
+ | 0.2247 | 70 | 1.3109 | - | - |
624
+ | 0.2568 | 80 | 1.2667 | - | - |
625
+ | 0.2889 | 90 | 1.2602 | - | - |
626
+ | 0.3210 | 100 | 1.2305 | 0.4525 | 0.3919 |
627
+ | 0.3531 | 110 | 1.1687 | - | - |
628
+ | 0.3852 | 120 | 1.147 | - | - |
629
+ | 0.4173 | 130 | 1.0961 | - | - |
630
+ | 0.4494 | 140 | 1.0522 | - | - |
631
+ | 0.4815 | 150 | 1.0472 | 0.4714 | 0.4134 |
632
+ | 0.5136 | 160 | 1.0128 | - | - |
633
+ | 0.5457 | 170 | 1.0101 | - | - |
634
+ | 0.5778 | 180 | 1.0731 | - | - |
635
+ | 0.6100 | 190 | 1.0003 | - | - |
636
+ | 0.6421 | 200 | 1.0544 | 0.4748 | 0.4251 |
637
+ | 0.6742 | 210 | 0.9778 | - | - |
638
+ | 0.7063 | 220 | 1.013 | - | - |
639
+ | 0.7384 | 230 | 1.0015 | - | - |
640
+ | 0.7705 | 240 | 0.9881 | - | - |
641
+ | 0.8026 | 250 | 1.0132 | 0.4822 | 0.4296 |
642
+ | 0.8347 | 260 | 0.96 | - | - |
643
+ | 0.8668 | 270 | 0.9993 | - | - |
644
+ | 0.8989 | 280 | 1.0048 | - | - |
645
+ | 0.9310 | 290 | 0.8957 | - | - |
646
+ | 0.9631 | 300 | 0.9568 | 0.4858 | 0.4352 |
647
+ | 0.9952 | 310 | 0.9017 | - | - |
648
+ | 1.0257 | 320 | 0.8178 | - | - |
649
+ | 1.0578 | 330 | 0.7772 | - | - |
650
+ | 1.0899 | 340 | 0.7431 | - | - |
651
+ | 1.1220 | 350 | 0.8291 | 0.4897 | 0.4395 |
652
+ | 1.1541 | 360 | 0.7911 | - | - |
653
+ | 1.1862 | 370 | 0.76 | - | - |
654
+ | 1.2183 | 380 | 0.7424 | - | - |
655
+ | 1.2504 | 390 | 0.7667 | - | - |
656
+ | 1.2825 | 400 | 0.8333 | 0.4916 | 0.4401 |
657
+ | 1.3146 | 410 | 0.6788 | - | - |
658
+ | 1.3467 | 420 | 0.7553 | - | - |
659
+ | 1.3788 | 430 | 0.7871 | - | - |
660
+ | 1.4109 | 440 | 0.7872 | - | - |
661
+ | 1.4430 | 450 | 0.7906 | 0.4921 | 0.4411 |
662
+ | 1.4751 | 460 | 0.7503 | - | - |
663
+ | 1.5072 | 470 | 0.7462 | - | - |
664
+ | 1.5393 | 480 | 0.7318 | - | - |
665
+ | 1.5714 | 490 | 0.7799 | - | - |
666
+ | 1.6035 | 500 | 0.7838 | 0.4913 | 0.4410 |
667
+ | 1.6356 | 510 | 0.7711 | - | - |
668
+ | 1.6677 | 520 | 0.7397 | - | - |
669
+ | 1.6998 | 530 | 0.7849 | - | - |
670
+ | 1.7319 | 540 | 0.8791 | - | - |
671
+ | 1.7640 | 550 | 0.7549 | 0.4919 | 0.4409 |
672
+ | 1.7961 | 560 | 0.7487 | - | - |
673
+ | 1.8283 | 570 | 0.7711 | - | - |
674
+ | 1.8604 | 580 | 0.7262 | - | - |
675
+ | 1.8925 | 590 | 0.7597 | - | - |
676
+ | 1.9246 | 600 | 0.7358 | 0.4919 | 0.4414 |
677
+
678
+
679
+ ### Framework Versions
680
+ - Python: 3.11.13
681
+ - Sentence Transformers: 5.1.1
682
+ - Transformers: 4.56.2
683
+ - PyTorch: 2.8.0+cu128
684
+ - Accelerate: 1.10.1
685
+ - Datasets: 4.2.0
686
+ - Tokenizers: 0.22.1
687
+
688
+ ## Citation
689
+
690
+ ### BibTeX
691
+
692
+ #### Sentence Transformers
693
+ ```bibtex
694
+ @inproceedings{reimers-2019-sentence-bert,
695
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
696
+ author = "Reimers, Nils and Gurevych, Iryna",
697
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
698
+ month = "11",
699
+ year = "2019",
700
+ publisher = "Association for Computational Linguistics",
701
+ url = "https://arxiv.org/abs/1908.10084",
702
+ }
703
+ ```
704
+
705
+ #### MatryoshkaLoss
706
+ ```bibtex
707
+ @misc{kusupati2024matryoshka,
708
+ title={Matryoshka Representation Learning},
709
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
710
+ year={2024},
711
+ eprint={2205.13147},
712
+ archivePrefix={arXiv},
713
+ primaryClass={cs.LG}
714
+ }
715
+ ```
716
+
717
+ #### MultipleNegativesRankingLoss
718
+ ```bibtex
719
+ @misc{henderson2017efficient,
720
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
721
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
722
+ year={2017},
723
+ eprint={1705.00652},
724
+ archivePrefix={arXiv},
725
+ primaryClass={cs.CL}
726
+ }
727
+ ```
728
+
729
+ <!--
730
+ ## Glossary
731
+
732
+ *Clearly define terms in order to be accessible across audiences.*
733
+ -->
734
+
735
+ <!--
736
+ ## Model Card Authors
737
+
738
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
739
+ -->
740
+
741
+ <!--
742
+ ## Model Card Contact
743
+
744
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
745
+ -->
added_tokens.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "</think>": 151668,
3
+ "</tool_call>": 151658,
4
+ "</tool_response>": 151666,
5
+ "<think>": 151667,
6
+ "<tool_call>": 151657,
7
+ "<tool_response>": 151665,
8
+ "<|box_end|>": 151649,
9
+ "<|box_start|>": 151648,
10
+ "<|endoftext|>": 151643,
11
+ "<|file_sep|>": 151664,
12
+ "<|fim_middle|>": 151660,
13
+ "<|fim_pad|>": 151662,
14
+ "<|fim_prefix|>": 151659,
15
+ "<|fim_suffix|>": 151661,
16
+ "<|im_end|>": 151645,
17
+ "<|im_start|>": 151644,
18
+ "<|image_pad|>": 151655,
19
+ "<|object_ref_end|>": 151647,
20
+ "<|object_ref_start|>": 151646,
21
+ "<|quad_end|>": 151651,
22
+ "<|quad_start|>": 151650,
23
+ "<|repo_name|>": 151663,
24
+ "<|video_pad|>": 151656,
25
+ "<|vision_end|>": 151653,
26
+ "<|vision_pad|>": 151654,
27
+ "<|vision_start|>": 151652
28
+ }
chat_template.jinja ADDED
@@ -0,0 +1,85 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {%- if tools %}
2
+ {{- '<|im_start|>system\n' }}
3
+ {%- if messages[0].role == 'system' %}
4
+ {{- messages[0].content + '\n\n' }}
5
+ {%- endif %}
6
+ {{- "# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
7
+ {%- for tool in tools %}
8
+ {{- "\n" }}
9
+ {{- tool | tojson }}
10
+ {%- endfor %}
11
+ {{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
12
+ {%- else %}
13
+ {%- if messages[0].role == 'system' %}
14
+ {{- '<|im_start|>system\n' + messages[0].content + '<|im_end|>\n' }}
15
+ {%- endif %}
16
+ {%- endif %}
17
+ {%- set ns = namespace(multi_step_tool=true, last_query_index=messages|length - 1) %}
18
+ {%- for message in messages[::-1] %}
19
+ {%- set index = (messages|length - 1) - loop.index0 %}
20
+ {%- if ns.multi_step_tool and message.role == "user" and not(message.content.startswith('<tool_response>') and message.content.endswith('</tool_response>')) %}
21
+ {%- set ns.multi_step_tool = false %}
22
+ {%- set ns.last_query_index = index %}
23
+ {%- endif %}
24
+ {%- endfor %}
25
+ {%- for message in messages %}
26
+ {%- if (message.role == "user") or (message.role == "system" and not loop.first) %}
27
+ {{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
28
+ {%- elif message.role == "assistant" %}
29
+ {%- set content = message.content %}
30
+ {%- set reasoning_content = '' %}
31
+ {%- if message.reasoning_content is defined and message.reasoning_content is not none %}
32
+ {%- set reasoning_content = message.reasoning_content %}
33
+ {%- else %}
34
+ {%- if '</think>' in message.content %}
35
+ {%- set content = message.content.split('</think>')[-1].lstrip('\n') %}
36
+ {%- set reasoning_content = message.content.split('</think>')[0].rstrip('\n').split('<think>')[-1].lstrip('\n') %}
37
+ {%- endif %}
38
+ {%- endif %}
39
+ {%- if loop.index0 > ns.last_query_index %}
40
+ {%- if loop.last or (not loop.last and reasoning_content) %}
41
+ {{- '<|im_start|>' + message.role + '\n<think>\n' + reasoning_content.strip('\n') + '\n</think>\n\n' + content.lstrip('\n') }}
42
+ {%- else %}
43
+ {{- '<|im_start|>' + message.role + '\n' + content }}
44
+ {%- endif %}
45
+ {%- else %}
46
+ {{- '<|im_start|>' + message.role + '\n' + content }}
47
+ {%- endif %}
48
+ {%- if message.tool_calls %}
49
+ {%- for tool_call in message.tool_calls %}
50
+ {%- if (loop.first and content) or (not loop.first) %}
51
+ {{- '\n' }}
52
+ {%- endif %}
53
+ {%- if tool_call.function %}
54
+ {%- set tool_call = tool_call.function %}
55
+ {%- endif %}
56
+ {{- '<tool_call>\n{"name": "' }}
57
+ {{- tool_call.name }}
58
+ {{- '", "arguments": ' }}
59
+ {%- if tool_call.arguments is string %}
60
+ {{- tool_call.arguments }}
61
+ {%- else %}
62
+ {{- tool_call.arguments | tojson }}
63
+ {%- endif %}
64
+ {{- '}\n</tool_call>' }}
65
+ {%- endfor %}
66
+ {%- endif %}
67
+ {{- '<|im_end|>\n' }}
68
+ {%- elif message.role == "tool" %}
69
+ {%- if loop.first or (messages[loop.index0 - 1].role != "tool") %}
70
+ {{- '<|im_start|>user' }}
71
+ {%- endif %}
72
+ {{- '\n<tool_response>\n' }}
73
+ {{- message.content }}
74
+ {{- '\n</tool_response>' }}
75
+ {%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
76
+ {{- '<|im_end|>\n' }}
77
+ {%- endif %}
78
+ {%- endif %}
79
+ {%- endfor %}
80
+ {%- if add_generation_prompt %}
81
+ {{- '<|im_start|>assistant\n' }}
82
+ {%- if enable_thinking is defined and enable_thinking is false %}
83
+ {{- '<think>\n\n</think>\n\n' }}
84
+ {%- endif %}
85
+ {%- endif %}
config.json ADDED
@@ -0,0 +1,60 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "Qwen3Model"
4
+ ],
5
+ "attention_bias": false,
6
+ "attention_dropout": 0.0,
7
+ "bos_token_id": 151643,
8
+ "dtype": "bfloat16",
9
+ "eos_token_id": 151643,
10
+ "head_dim": 128,
11
+ "hidden_act": "silu",
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_types": [
16
+ "full_attention",
17
+ "full_attention",
18
+ "full_attention",
19
+ "full_attention",
20
+ "full_attention",
21
+ "full_attention",
22
+ "full_attention",
23
+ "full_attention",
24
+ "full_attention",
25
+ "full_attention",
26
+ "full_attention",
27
+ "full_attention",
28
+ "full_attention",
29
+ "full_attention",
30
+ "full_attention",
31
+ "full_attention",
32
+ "full_attention",
33
+ "full_attention",
34
+ "full_attention",
35
+ "full_attention",
36
+ "full_attention",
37
+ "full_attention",
38
+ "full_attention",
39
+ "full_attention",
40
+ "full_attention",
41
+ "full_attention",
42
+ "full_attention",
43
+ "full_attention"
44
+ ],
45
+ "max_position_embeddings": 32768,
46
+ "max_window_layers": 28,
47
+ "model_type": "qwen3",
48
+ "num_attention_heads": 16,
49
+ "num_hidden_layers": 28,
50
+ "num_key_value_heads": 8,
51
+ "rms_norm_eps": 1e-06,
52
+ "rope_scaling": null,
53
+ "rope_theta": 1000000,
54
+ "sliding_window": null,
55
+ "tie_word_embeddings": true,
56
+ "transformers_version": "4.56.2",
57
+ "use_cache": true,
58
+ "use_sliding_window": false,
59
+ "vocab_size": 151669
60
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "model_type": "SentenceTransformer",
3
+ "__version__": {
4
+ "sentence_transformers": "5.1.1",
5
+ "transformers": "4.56.2",
6
+ "pytorch": "2.8.0+cu128"
7
+ },
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ef13ca77481b71e79c033e19e57f13576c8145f5992e0df153c86d9e14d96cc1
3
+ size 1191586416
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<|im_start|>",
4
+ "<|im_end|>",
5
+ "<|object_ref_start|>",
6
+ "<|object_ref_end|>",
7
+ "<|box_start|>",
8
+ "<|box_end|>",
9
+ "<|quad_start|>",
10
+ "<|quad_end|>",
11
+ "<|vision_start|>",
12
+ "<|vision_end|>",
13
+ "<|vision_pad|>",
14
+ "<|image_pad|>",
15
+ "<|video_pad|>"
16
+ ],
17
+ "eos_token": {
18
+ "content": "<|im_end|>",
19
+ "lstrip": false,
20
+ "normalized": false,
21
+ "rstrip": false,
22
+ "single_word": false
23
+ },
24
+ "pad_token": {
25
+ "content": "<|endoftext|>",
26
+ "lstrip": false,
27
+ "normalized": false,
28
+ "rstrip": false,
29
+ "single_word": false
30
+ }
31
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5fdeb53f7184a683a77cdd86f31415be50aa95894c2d24072089572248abefe6
3
+ size 11423971
tokenizer_config.json ADDED
@@ -0,0 +1,239 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_bos_token": false,
3
+ "add_prefix_space": false,
4
+ "added_tokens_decoder": {
5
+ "151643": {
6
+ "content": "<|endoftext|>",
7
+ "lstrip": false,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false,
11
+ "special": true
12
+ },
13
+ "151644": {
14
+ "content": "<|im_start|>",
15
+ "lstrip": false,
16
+ "normalized": false,
17
+ "rstrip": false,
18
+ "single_word": false,
19
+ "special": true
20
+ },
21
+ "151645": {
22
+ "content": "<|im_end|>",
23
+ "lstrip": false,
24
+ "normalized": false,
25
+ "rstrip": false,
26
+ "single_word": false,
27
+ "special": true
28
+ },
29
+ "151646": {
30
+ "content": "<|object_ref_start|>",
31
+ "lstrip": false,
32
+ "normalized": false,
33
+ "rstrip": false,
34
+ "single_word": false,
35
+ "special": true
36
+ },
37
+ "151647": {
38
+ "content": "<|object_ref_end|>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false,
43
+ "special": true
44
+ },
45
+ "151648": {
46
+ "content": "<|box_start|>",
47
+ "lstrip": false,
48
+ "normalized": false,
49
+ "rstrip": false,
50
+ "single_word": false,
51
+ "special": true
52
+ },
53
+ "151649": {
54
+ "content": "<|box_end|>",
55
+ "lstrip": false,
56
+ "normalized": false,
57
+ "rstrip": false,
58
+ "single_word": false,
59
+ "special": true
60
+ },
61
+ "151650": {
62
+ "content": "<|quad_start|>",
63
+ "lstrip": false,
64
+ "normalized": false,
65
+ "rstrip": false,
66
+ "single_word": false,
67
+ "special": true
68
+ },
69
+ "151651": {
70
+ "content": "<|quad_end|>",
71
+ "lstrip": false,
72
+ "normalized": false,
73
+ "rstrip": false,
74
+ "single_word": false,
75
+ "special": true
76
+ },
77
+ "151652": {
78
+ "content": "<|vision_start|>",
79
+ "lstrip": false,
80
+ "normalized": false,
81
+ "rstrip": false,
82
+ "single_word": false,
83
+ "special": true
84
+ },
85
+ "151653": {
86
+ "content": "<|vision_end|>",
87
+ "lstrip": false,
88
+ "normalized": false,
89
+ "rstrip": false,
90
+ "single_word": false,
91
+ "special": true
92
+ },
93
+ "151654": {
94
+ "content": "<|vision_pad|>",
95
+ "lstrip": false,
96
+ "normalized": false,
97
+ "rstrip": false,
98
+ "single_word": false,
99
+ "special": true
100
+ },
101
+ "151655": {
102
+ "content": "<|image_pad|>",
103
+ "lstrip": false,
104
+ "normalized": false,
105
+ "rstrip": false,
106
+ "single_word": false,
107
+ "special": true
108
+ },
109
+ "151656": {
110
+ "content": "<|video_pad|>",
111
+ "lstrip": false,
112
+ "normalized": false,
113
+ "rstrip": false,
114
+ "single_word": false,
115
+ "special": true
116
+ },
117
+ "151657": {
118
+ "content": "<tool_call>",
119
+ "lstrip": false,
120
+ "normalized": false,
121
+ "rstrip": false,
122
+ "single_word": false,
123
+ "special": false
124
+ },
125
+ "151658": {
126
+ "content": "</tool_call>",
127
+ "lstrip": false,
128
+ "normalized": false,
129
+ "rstrip": false,
130
+ "single_word": false,
131
+ "special": false
132
+ },
133
+ "151659": {
134
+ "content": "<|fim_prefix|>",
135
+ "lstrip": false,
136
+ "normalized": false,
137
+ "rstrip": false,
138
+ "single_word": false,
139
+ "special": false
140
+ },
141
+ "151660": {
142
+ "content": "<|fim_middle|>",
143
+ "lstrip": false,
144
+ "normalized": false,
145
+ "rstrip": false,
146
+ "single_word": false,
147
+ "special": false
148
+ },
149
+ "151661": {
150
+ "content": "<|fim_suffix|>",
151
+ "lstrip": false,
152
+ "normalized": false,
153
+ "rstrip": false,
154
+ "single_word": false,
155
+ "special": false
156
+ },
157
+ "151662": {
158
+ "content": "<|fim_pad|>",
159
+ "lstrip": false,
160
+ "normalized": false,
161
+ "rstrip": false,
162
+ "single_word": false,
163
+ "special": false
164
+ },
165
+ "151663": {
166
+ "content": "<|repo_name|>",
167
+ "lstrip": false,
168
+ "normalized": false,
169
+ "rstrip": false,
170
+ "single_word": false,
171
+ "special": false
172
+ },
173
+ "151664": {
174
+ "content": "<|file_sep|>",
175
+ "lstrip": false,
176
+ "normalized": false,
177
+ "rstrip": false,
178
+ "single_word": false,
179
+ "special": false
180
+ },
181
+ "151665": {
182
+ "content": "<tool_response>",
183
+ "lstrip": false,
184
+ "normalized": false,
185
+ "rstrip": false,
186
+ "single_word": false,
187
+ "special": false
188
+ },
189
+ "151666": {
190
+ "content": "</tool_response>",
191
+ "lstrip": false,
192
+ "normalized": false,
193
+ "rstrip": false,
194
+ "single_word": false,
195
+ "special": false
196
+ },
197
+ "151667": {
198
+ "content": "<think>",
199
+ "lstrip": false,
200
+ "normalized": false,
201
+ "rstrip": false,
202
+ "single_word": false,
203
+ "special": false
204
+ },
205
+ "151668": {
206
+ "content": "</think>",
207
+ "lstrip": false,
208
+ "normalized": false,
209
+ "rstrip": false,
210
+ "single_word": false,
211
+ "special": false
212
+ }
213
+ },
214
+ "additional_special_tokens": [
215
+ "<|im_start|>",
216
+ "<|im_end|>",
217
+ "<|object_ref_start|>",
218
+ "<|object_ref_end|>",
219
+ "<|box_start|>",
220
+ "<|box_end|>",
221
+ "<|quad_start|>",
222
+ "<|quad_end|>",
223
+ "<|vision_start|>",
224
+ "<|vision_end|>",
225
+ "<|vision_pad|>",
226
+ "<|image_pad|>",
227
+ "<|video_pad|>"
228
+ ],
229
+ "bos_token": null,
230
+ "clean_up_tokenization_spaces": false,
231
+ "eos_token": "<|im_end|>",
232
+ "errors": "replace",
233
+ "extra_special_tokens": {},
234
+ "model_max_length": 131072,
235
+ "pad_token": "<|endoftext|>",
236
+ "split_special_tokens": false,
237
+ "tokenizer_class": "Qwen2Tokenizer",
238
+ "unk_token": null
239
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff