Skip to content
  • عنصر القائمة
  • عنصر القائمة
  • عنصر القائمة
  • عنصر القائمة
  • عنصر القائمة
  • من نحن
  • شروط النشر
  • المجالات البحثية
  • شروط الاستخدام
مركز JSM

مركز JSM

للأبحاث و الدراسات

info@jsmcenter.org
007 915 148 55 99
(Phone, WhatsApp, Telegram, Viber)

  • الصفحة الرئيسية
  • مقالات سياسية
  • مقالات اقتصادية
  • علوم عسكرية
  • علوم وتكنولوجيا
  • مجتمع وثقافة
  • أبحاث ودراسات

تحفيز التفكير التسلسلي.. نمط متقدم من الذكاء الاصطناعي

Posted on 09.06.202509.06.2025 By محمد ملحم
المشاهدات: 1٬272

بقلم الدكتور المهندس محمد ملحم*

منذ إطلاق OpenAI لـ ChatGPT في عام 2022، دخلت شركات الذكاء الاصطناعي في سباق بناء نماذج AI عملاقة، مما دفع الشركات إلى استثمار مبالغ طائلة في بناء مراكز للبيانات. لكن مع نهاية العام الماضي، أكدت الأخبار بأنه لا فائدة من التوسع بنماذج جديدة وهي تسير في طريق مسدود، وأكد صحة هذه الأخبار الأداء المخيب للآمال للنموذج الأكبر GPT-4.5.
دفع هذا الوضع الباحثون إلى التركيز على تحويل الآلات إلى أداة تفكير “Think” بدلاً من تنفيذ الخوارزميات، وبدلاً من بناء نماذج كبيرة يتم منح الآلات مزيداً من الوقت للتفكير في حل المشاكل. في هذا السياق طرح فريق من شركة Google تقنية تحفيز التفكير التسلسلي Chain of Thought (Cot) في نماذج اللغة الكبيرة large language models (LLMs). يُعزز هذا النهج القدرات الكبيرة للجيل الجديد من نماذج الاستدلال، مثل o3 من OpenAI، وGemini 2.5 من Google، وClaude 3.7 من Anthropic، وR1 من DeepSeek. وتعجّ أبحاث الذكاء الاصطناعي الآن بالإشارة إلى الفكر “thought” و التفكير “thinking” و الاستدلال “reasoning”، مع تزايد عدد التقنيات المستوحاة من المعرفة.
1-ما هو تحفيز التفكير التسلسلي (CoT)؟
سلسلة الأفكار CoT هي تقنية هندسية تحفيزية تُحسّن مخرجات نماذج اللغات الكبيرة LLMs، وخاصةً في المهام المعقدة التي تتضمن التفكير متعدد الخطوات. تُسهّل هذه التقنية حل المشكلات من خلال توجيه النموذج عبر عملية تفكير تدريجية باستخدام سلسلة متماسكة من الخطوات المنطقية. تُستخدم هندسة التوجيه في الذكاء الاصطناعي لتحسين المدخلات (التحفيزات) للحصول على مخرجات دقيقة. تزداد قدرة النماذج LLMs على التفكير مع زيادة حجم المُعاملات وتزداد معها الدقة. لهذا السبب، يُعتبر CoT قدرةً ناشئة تظهر مع ازدياد حجم النموذج وازدياد تعقيده. تميل نماذج LLM الكبيرة إلى تحقيق أداء أفضل لأنها اكتسبت أنماط تفكير أكثر دقة من خلال التدريب على مجموعات بيانات ضخمة.
يحاكي توجيه CoT عمليات التفكير البشري من خلال تقسيم المشكلات المعقدة إلى خطوات وسيطة سهلة الإدارة وتضمن الإجابة، ويضمن هذا الهيكل التدريجي لحل المشكلات وضوح عملية التفكير ومنطقيتها وفعاليتها. عادةً ما يكون خرج النموذج في صيغ التوجيه القياسية استجابة مباشرة للمدخلات المُقدّمة. على سبيل المثال، قد يسأل أحدهم: “ما لون السماء؟”، فيُولّد الذكاء الاصطناعي استجابة بسيطة ومباشرة “السماء زرقاء”. وإذا طُلب من الذكاء الاصطناعي شرح سبب زرقة السماء باستخدام التوجيه CoT، فسيُعرّف الذكاء الاصطناعي أولاً معنى “الأزرق” (الإجابة: لون أساسي)، ثم يستنتج أن السماء تبدو زرقاء بسبب امتصاص الغلاف الجوي للألوان. تُظهر هذه الاستجابة قدرة الذكاء الاصطناعي على بناء حجّة منطقية (انظر الشكل (1)).
يُستخدم تسلسل الموجهات المتنوعة في تطبيقات الذكاء الاصطناعي لتحسين الموثوقية، حيث تتكامل مع بعضها البعض ويضاف إليها تعليمات مثل “اشرح إجابتك خطوة بخطوة” لتحليل المهام المعقدة. توجه تقنيات مثل تسلسل الموجهات وCoT النموذج إلى تحليل المشكلة خطوة بخطوة، بدلاً من القفز إلى إجابة تبدو صحيحة فحسب1.

الشكل (1)

-كيف يعمل أسلوب التحفيز المتسلسل؟
يعمل التحفيز المتسلسل على توجيه النماذج LLMs لتوليد سلاسل تفكير للمهام الجديدة، ويتحقق ذلك من خلال أمثلة لتحفيزات توضح عملية التفكير، مما يعزز قدرة النموذج على مواجهة تحديات التفكير المعقد. لفهم آلية عمل التحفيز، نطرح مثال معالجة مسألة رياضية كلاسيكية وهي حل معادلة متعددة الحدود2.
مثال: حل المعادلات متعددة الحدود
يمكن أن يُساعد أسلوب “سلسلة الأفكار” CoT بشكل كبير في حل المعادلات متعددة الحدود من خلال توجيه النموذج LLM لاتباع سلسلة من الخطوات المنطقية، مما يُبسط عملية الحل. دعونا ندرس كيف يُمكن لأسلوب “سلسلة الأفكار” معالجة معادلة متعددة الحدود.
لتكن المعادلة التربيعية: x^2- 5x + 6 = 0
عندما نعطي هذه المعادلة لنموذج ذكاء اصطناعي مثل ChatGPT يمكننا رؤية استجابة Chatgpt على السؤال البشري كما هو مبين في الشكل(2).

الشكل (2)

في حين يعمل CoT كما هو موضح في الشكل(3)، الإجابة النهائية عبارة عن سلسلة أفكار.

الشكل (3)

-أنواع تحفيز سلسلة الأفكار CoT
1-سلسلة الأفكار ذات اللقطة الصفرية Zero-shot chain of thought: تستفيد هذه التقنية من المعرفة الكامنة في النماذج لمعالجة المشكلات دون الحاجة إلى أمثلة محددة مسبقة أو ضبط دقيق fine-tuning 3 للمهمة المطروحة، ومفيدة بشكل خاص في التفكير الحسابي والبديهي. يُعد هذا النهج قيّماً بشكل خاص عند التعامل مع أنواع جديدة أو متنوعة من المشكلات حيث قد لا تتوفر بيانات تدريب مُخصصة. يمكن لهذا النهج الاستفادة من خصائص التحفيز القياسي والتحفيز ذي اللقطة القليلة few-shot 4. على سبيل المثال، عند الإجابة على سؤال “ما هي عاصمة دولة تحد فرنسا ولها علم أحمر وأبيض؟”، سيعتمد نموذج يستخدم سلسلة الأفكار ذات اللقطة الصفرية على معرفته الجغرافية ومعرفته المضمنة بالعلم لاستنتاج خطوات تؤدي إلى سويسرا كإجابة، على الرغم من عدم تدريبه صراحةً على مثل هذه الاستفسارات.
2-سلسلة تفكير تلقائية Automatic chain of thought: تهدف سلسلة التفكير التلقائية auto-CoT إلى تقليل الجهد اليدوي في صياغة المحفزات من خلال أتمتة عملية إنشاء واختيار مسارات التفكير الفعّالة. يُحسّن هذا الخيار قابلية التوسع وسهولة الوصول إلى محفزات CoT لمجموعة أوسع من المهام والمستخدمين. على سبيل المثال، لحل مسألة رياضية مثل “إذا كان لديك 3 تفاحات واشتريت 5، فكم يصبح الإجمالي؟”، يمكن لنظام CoT التلقائي توليد خطوات وسيطة تلقائياً تتضمن البدء بثلاث تفاحات ومن ثم إضافة 5 لتصل إلى إجمالي التفاحات = 8”.
3-سلسلة التفكير متعددة الوسائط Multimodal chain of thought: تمتد سلسلة التفكير متعددة الوسائط لتشمل مدخلات من وسائط متنوعة، مثل النصوص والصور، مما يُمكّن النموذج من معالجة ودمج أنواع متنوعة من المعلومات في مهام التفكير المعقدة. على سبيل المثال، عند عرض صورة لشاطئ مزدحم، وسؤال: “هل من المرجح أن يكون هذا الشاطئ رائجاً في الصيف؟”، يمكن للنموذج الذي يستخدم نظرية الترابط متعددة الوسائط لتحليل الإشارات البصرية. تساعد إشارات مثل إشغال الشاطئ وأحوال الطقس وغيرها النموذج على استنباط استجابة مفصلة، ويساهم في ذلك أيضاً الفهم النصي لشعبية الموسم. قد تكون الإجابة المحتملة: “الشاطئ مزدحم، مما يشير إلى شعبية عالية ومن المرجح أن تزداد في الصيف”.
2-كيف يعمل استدلال الذكاء الاصطناعي
تستخدم نماذج اللغة الكبيرة LLMs قانون الاحتمالات الإحصائي للتنبؤ بالرمز التالي في سلسلة نصية. أما تقنية التسلسل الفكري CoT فتعمل على حث النماذج على الاستجابة بسلسلة من خطوات الاستدلال reasoning الوسيطة قبل التوصل إلى إجابة، وعُزز هذا الأداء بشكل واضح في مسائل الرياضيات والمنطق. وبعد النجاح المزهل لهذه التقنية، ابتكر باحثون في جامعة ستانفورد مجموعة من الإضافات إلى هذه التقنية، مثل شجرة الأفكار5 “tree of thought” ومخطط الأفكار6 “diagram of thought” ومنطق الأفكار7 “logic of thought” وتكرار الأفكار8 “iteration of thought” وغيرها.
لدمج هذه التقينة في نماذج AI الشائعة الاستخدام. اعتمد الباحثون على التعلم المعزز reinforcement learning ونظرية التكرار ومجموعة متنوعة من الاستراتيجيات المعرفية التي تعكس كيفية حل البشر للمشاكل المعقدة، والهدف هو تبسيط المهمة إلى مهام أبسط واستخدام التغذية الراجعة في تصحيح أخطاء خطوات التفكير السابقة للحصول على أفضل اجابة نهائية.
لكن طرق تدريب هذه النماذج قد تؤدي إلى مشاكل بحسب المهندس ساكسون (باحث في جامعة كاليفورنيا)، لأن التعلم المعزز يحتاج إلى طريقة للتحقق من صحة الاستجابة. لذلك تم تدريب نماذج الاستدلال في المقام الأول على مهام التحقق فيها سهلاً مثل الرياضيات أو البرمجة أو الألغاز المنطقية. ورغم ذلك تميل هذه النماذج إلى معالجة جميع الأسئلة كما لو كانت مسائل استدلال معقدة، مما قد يؤدي إلى الإفراط في التفكير overthinking.
اختبر ساكسون وزملاؤه عدة نماذج ذكاء اصطناعي على سلسلة مختلفة من المهام السهلة، تبين أن نماذج الاستدلال تستخدم عدداً كبيراً من الخطوات (tokens) للوصول إلى إجابة صحيحة مقارنةً بنماذج اللغة الكبيرة التقليدية. ففي بعض الحالات، أدى هذا الإفراط في التفكير إلى أداء سيء. وبالمقارنة بين النماذج المُفرطة بالتفكير والانسان المفرط بالتفكير، اثبت الأخير فاعلية عالية في التعامل مع نفس المهام. وبالرغم من ذلك، الأساليب المستوحاة من الإدراك البشري يمكن أن تكون فعالة بشكل مدهش.
3-أين يفشل تفكير الذكاء الاصطناعي؟
لا تزال هناك ثغرة واضحة في قدرات التفكير المنطقي عند هذه النماذج. حيث قارنت مارثا لويس الأستاذ المساعد في الذكاء الاصطناعي بجامعة أمستردام قدرة نماذج LLMs والبشر على التفكير المنطقي، كخطوة أولى في طريق التفكير الإبداعي.
عند اختبار النماذج على الإصدارات القياسية من اختبارات التفكير المنطقي، كان أداء كل من النماذج والبشر جيداً. ولكن عندما استخدمت إصدارات جديدة غير قياسية من الاختبارات، انخفض أداء النماذج بشكل حاد مقارنةً بأداء البشر. التفسير المحتمل، هو وجود مشاكل مماثلة للاختبارات القياسية كانت موجودة ضمن بيانات تدريب هذه النماذج، واستخدمت النماذج المطابقة السطحية للأنماط لإيجاد الحلول بدلاً من التفكير المنطقي. أُجريت الاختبارات على نماذج قديمة من OpenAI، ولكن من المتوقع أن يكون أداء “نماذج التفكير المنطقي” الحديثة أفضل.
تقول مارثا لويس: “بما أن للنماذج سلاسة واضحة بإعطاء النتائج، فمن السهل جداً الشعور بأنها تُنجز شيئاً يفوق قدرتها الفعلية، ولكن لا ينبغي لنا القول أن هذه النماذج تُجري استدلالاً (التفكير في سياق محدد) دون اختبار دقيق”.
يربز ضعف الذكاء الاصطناعي في المجالات التي تحتاج إلى تفكير في الحالات العقلية للآخرين، وهو ما يُعرف بنظرية العقل9 Theory of mind. أظهرت العديد من الأوراق البحثية قدرة LLMs على حلّ الاختبارات النفسية الكلاسيكية، لكن الباحثين في معهد ألين للذكاء الاصطناعي AI2 نسبوا هذا الأداء المُتميز إلى تضمين الاختبارات في مجموعات بيانات التدريب.
لذلك، ابتكر الباحثون مجموعة جديدة من اختبارات نظرية العقل المُستندة إلى مواقف واقعية، والتي يتم فيها قياس قدرة النموذج على استنتاج الحالة العقلية لشخص ما، والتنبؤ بكيفية تأثير تلك الحالة على سلوكه، وتقييم ما إذا كانت أفعاله معقولة أم لا. على سبيل المثال، قد يُقال للنموذج إن شخصاً ما التقط علبة رقائق بطاطس مغلقة من السوبر ماركت، لكن محتوياتها متعفنة. ثم يُسأل عما إذا كان الشخص يعلم أن الرقائق متعفنة، وما إذا كان سيشتريها، وفيما إذا كان ذلك معقولاً.
وجد الفريق أنه بينما كانت النماذج جيدة في التنبؤ بالحالات العقلية، إلا أنها كانت سيئة في التنبؤ بالسلوك والحكم على المعقولية. يقول رونان لو براس الباحث في AI2 أن السبب في ذلك هو أن النماذج تحسب احتمالية الأفعال بناءً على جميع البيانات المتاحة لها – وهم يعرفون على سبيل المثال، أنه من غير المرجح أن يشتري شخص ما رقائق بطاطس متعفنة. على الرغم من أن النماذج يمكنها استنتاج الحالة العقلية لشخص ما، لكنها لا تأخذ هذه الحالة في الاعتبار عند التنبؤ بسلوكه. وجد الباحثون أن تذكير النماذج بالتنبؤ بالحالة العقلية، أو إعطائها مُحفزاً محدداً من CoT يُخبرها بالوعي الشخصي قد أدى إلى تحسين الأداء بشكل ملحوظ. تقول يولينغ غو، باحثة شابة في AI2، إن دمج نمط التفكير الصحيح بشكل أعمق في هذه النماذج مستقبلًا سيساهم في حل بعض المشاكل.
4-هل يمكن للتعلم الإدراكي تحسين أداء الذكاء الاصطناعي؟
يقول غروسمان من جامعة واترلو إن جعل النماذج قادرة على التفكير بمرونة عبر مجموعة واسعة من المهام قد يتطلب تحولاً جذرياً في مسار الذكاء الاصطناعي. حيث شارك في ورقة بحثية10، تُسلّط الضوء على الحاجة إلى تزويد النماذج بمهارات ما وراء الإدراك metacognition ، وهي “القدرة على التفكير في عمليات التفكير وتنظيمها”.
ويقول غروسمان إن نماذج اليوم هي “مولدات احترافية للهراء”، حيث تُقدّم أفضل تخمين لأي سؤال دون القدرة على إدراك عدم اليقين أو التعبير عنه. كما أنها سيئة في تكييف الاستجابات ضمن سياقات محددة أو مراعاة وجهات نظر متنوعة، وهي أمور طبيعية لدى البشر. ويضيف غروسمان أن تزويد النماذج بقدرات ما وراء الإدراك لن يُحسّن الأداء فحسب، بل سيُسهّل أيضاً متابعة عمليات التفكير لديها.
ويضيف أن القيام بذلك سيكون صعباً، لأنه سيتطلب جهداً هائلاً في تسمية بيانات التدريب ضمن فئات مثل “اليقين certainty ” أو “الترابط والصلة relevance”، أو إضافة وحدات جديدة إلى النماذج تقوم بأشياء مثل تقييم موثوقية خطوات الاستدلال reasoning steps. تستهلك نماذج الاستدلال طاقة حسابية وموارد كبيرة جداً بالمقارنة مع النماذج LLMs، ومن المرجح أن تؤدي إضافة متطلبات التدريب الإضافية وحلقات المعالجة هذه إلى تفاقم الوضع. يقول غروسمان: “قد يؤدي ذلك إلى إفلاس العديد من الشركات الصغيرة عدا عن التكلفة البيئية المرتبطة بذلك”. ومع ذلك، لا تزال محاولة محاكاة العمليات المعرفية الكامنة وراء الذكاء البشري هي المسار الأكثر وضوحاً للمضي قدماً في هذا الاتجاه، لعدم وجود طريق بديلة للتفكير.

References
1-Wei, Jason, et al. “Chain-of-thought prompting elicits reasoning in large language models.” Advances in neural information processing systems 35 (2022): 24824-24837.
2-Chu, Zheng, et al. “Navigate through enigmatic labyrinth a survey of chain of thought reasoning: Advances, frontiers and future.” arXiv preprint arXiv:2309.15402 (2023).
3-http://ibm.com/think/topics/fine-tuning
4-https://www.ibm.com/think/topics/few-shot-learning
5-Yao, Shunyu, et al. “Tree of thoughts: Deliberate problem solving with large language models, 2023.” URL https://arxiv. org/abs/2305.10601 3 (2023).
6-Zhang, Yifan, Yang Yuan, and Andrew Chi-Chih Yao. “On the diagram of thought.” arXiv preprint arXiv:2409.10038 (2024).
7-Liu, Tongxuan, et al. “Logic-of-thought: Injecting logic into contexts for full reasoning in large language models.” arXiv preprint arXiv:2409.17539 (2024).
8-Radha, Santosh Kumar, et al. “Iteration of thought: Leveraging inner dialogue for autonomous large language model reasoning, 2024.” URL https://arxiv. org/abs/2409.12618.
9-https://spectrum.ieee.org/theory-of-mind-ai
10-Johnson, Samuel GB, et al. “Imagining and building wise machines: The centrality of AI metacognition.” arXiv preprint arXiv:2411.02478 (2024).

ـــــــــــــــــــــــــــــــــــــــــــــــــــــ
*الدكتور محمد ملحم – أستاذ مساعد في جامعة العين العراقية – كلية التقنيات الهندسية

جميع الآراء الواردة في هذه المقالة لا تعبّر بالضرورة عن رأي مركز JSM وإنما تعبّر عن رأي كاتبها حصراً

علوم وتكنولوجيا Tags:الذكاء الاصطناعي, محمد ملحم

تصفّح المقالات

Previous Post: الأحزاب وتميز “مستقبل وطن” في مصر
Next Post: ورقة سياسات إصلاح البرامج التربوية في التعليم العام الفلسطيني
  • ما علاقة وزير الثقافة الروسي السابق بمفاوضات اسطنبول؟!
  • فلسطين بين الحقّ والواقعية: نشيد العالقين على عرش الرماد
  • من الفكرة إلى الفيرال – كيف يُصنع الخبير الزائف في العصر الرقمي؟
  • الردع المؤكد: كيف يُعاقب النظام الدوَّلي القوى الطامحة للتوَّسع الإقليمي؟
  • العرب والفكر النقدي .. إشكالات حوارات لم تبدأ

Assef Molhem Z آصف ملحم أفريقيا ألمانيا أوروبا أوكرانيا إسرائيل إيران الاتحاد السوفيتي الاحتلال الإسرائيلي التعليم الثقافة الجزائر السياسة الصين العراق العملية العسكرية الروسية الخاصة الغرب القدس المسجد الأقصى الناتو الولايات المتحدة الأمريكية بريطانيا بوتين تركيا ثروت زيد الكيلاني روسيا زيلينسكي سفيان حشيفة سورية عباس الزيدي عبدالله العبادي غزة فرنسا فلسطين قطاع غزة لبنان محمد عياش محمد ملحم مصر مصطفى اللداوي مصطفى يوسف اللداوي نجم الدليمي يونس الديدي

مركز JSM للأبحاث والدراسات
جميع الحقوق محفوظة 2025
روسيا الاتحادية، موسكو