Newsletter

وهم التفكير المنطقي: الجدل الذي يهز عالم الذكاء الاصطناعي

تنشر Apple ورقتين بحثيتين مدمّرتين - "GSM-Symbolic" (أكتوبر 2024) و"وهم التفكير" (يونيو 2025) - اللتين توضحان كيف تفشل LLM في الاختلافات الصغيرة للمشاكل الكلاسيكية (برج هانوي، عبور النهر): "ينخفض الأداء عند تغيير القيم العددية فقط". لا نجاح على برج هانوي المعقد. لكن أليكس لوسين (Open Philanthropy) يردّ بـ "وهم التفكير" الذي يوضح المنهجية الفاشلة: كانت الإخفاقات عبارة عن حدود مخرجات رمزية وليس انهياراً في التفكير، وأخطأت النصوص التلقائية في تصنيف المخرجات الصحيحة الجزئية، وكانت بعض الألغاز غير قابلة للحل رياضياً. من خلال تكرار الاختبارات باستخدام الدوال التكرارية بدلاً من سرد الحركات، حل كلود/جيميني/جيميني/جيمبيلي حل برج هانوي 15 سجلاً. يتبنى غاري ماركوس أطروحة Apple حول "تحول التوزيع"، لكن ورقة توقيت ما قبل WWDC تثير أسئلة استراتيجية. الآثار المترتبة على الأعمال: إلى أي مدى يمكن الوثوق بالذكاء الاصطناعي في المهام الحرجة؟ الحل: المناهج العصبية الرمزية العصبية الشبكات العصبية للتعرف على الأنماط + اللغة، والأنظمة الرمزية للمنطق الرسمي. مثال: الذكاء الاصطناعي المحاسبي يفهم "كم نفقات السفر؟" ولكن SQL/ الحسابات/ التدقيق الضريبي = رمز حتمي.
فابيو لوريا
الرئيس التنفيذي ومؤسس شركة Electe‍
عندما يلتقي منطق الذكاء الاصطناعي بالواقع: يطبق الروبوت القاعدة المنطقية بشكل صحيح ولكنه يحدد كرة السلة على أنها برتقالة. استعارة مثالية لكيفية محاكاة الروبوتات المنطقية للعمليات المنطقية دون أن تمتلك فهماً حقيقياً.

على مدى الأشهر القليلة الماضية، شهد مجتمع الذكاء الاصطناعي جدلاً محتدماً أثارته ورقتان بحثيتان مؤثرتان نشرتهما شركة Apple. الأولى "GSM-Symbolic (أكتوبر 2024)، والثانية "وهم التفكير (يونيو 2025)، شككتا في القدرات المنطقية المزعومة لنماذج اللغات الكبيرة، مما أثار ردود فعل متباينة في جميع أنحاء الصناعة.

كما سبق أن حللنا في مقالنا السابق عن "وهم التقدم: محاكاة الذكاء الاصطناعي العام دون تحقيقه".فإن مسألة التفكير الاصطناعي تمس جوهر ما نعتبره ذكاءً في الآلات.

ما الذي تقوله أبحاث Apple

أجرى باحثو شركة Apple تحليلاً منهجياً على نماذج الاستدلال الكبيرة (LRM) - تلك النماذج التي تولد آثاراً تفصيلية للتفكير قبل تقديم إجابة. كانت النتائج مفاجئة ومقلقة للكثيرين.

الاختبارات التي أجريت

أخضعت الدراسة النماذج الأكثر تقدمًا للألغاز الخوارزمية الكلاسيكية مثل:

  • برج هانوي: لغز رياضي تم حله لأول مرة عام 1957
  • مشاكل عبور الأنهار: ألغاز منطقية ذات قيود محددة
  • المعيار الرمزي GSM-المعيار الرمزي: تنويعات المسائل الرياضية على المستوى الابتدائي

اختبار التفكير باستخدام ألغاز كلاسيكية: تعد مشكلة المزارع والذئب والماعز والملفوف أحد الألغاز المنطقية المستخدمة في دراسات Apple لتقييم قدرات التفكير لدى طلاب LLM. تكمن الصعوبة في إيجاد التسلسل الصحيح للعبور مع تجنب أكل الذئب للماعز أو أكل الماعز للملفوف عند تركه بمفرده. اختبار بسيط ولكنه فعال للتمييز بين الفهم الخوارزمي وحفظ الأنماط.

النتائج المثيرة للجدل

أظهرت النتائج أنه حتى التغييرات الطفيفة في صياغة المشكلة تؤدي إلى اختلافات كبيرة في الأداء، مما يشير إلى هشاشة مقلقة في التفكير. كما ورد في تغطية AppleInsider"ينخفض أداء جميع النماذج عندما يتم تغيير القيم العددية فقط في الأسئلة المعيارية GSM-Symbolic".

الهجوم المضاد: وهم التفكير

لم يتأخر الرد من مجتمع الذكاء الاصطناعي. فقد نشر أليكس لوسن من مؤسسة Open Philanthropy، بالتعاون مع كلود أوبوس من مؤسسة Anthropic، ردًا مفصلاً بعنوان "وهم التفكير".يطعن في منهجيات واستنتاجات دراسة Apple.

الاعتراضات الرئيسية

  1. تجاهل حدود الإخراج: العديد من حالات الفشل التي تُعزى إلى "انهيار المنطق" كانت في الواقع بسبب حدود رمز الإخراج النموذجي
  2. تقييم غير صحيح: صنّفت البرامج النصية التلقائية أيضًا مخرجات جزئية ولكن صحيحة خوارزميًا على أنها فشل كلي
  3. المشكلات المستحيلة: كانت بعض الألغاز غير قابلة للحل رياضيًا، ولكن تم معاقبة النماذج لعدم حلها

اختبارات التأكيد

عندما كرر لوسن الاختبارات بمنهجيات بديلة - حيث طلب من النماذج توليد دوال تكرارية بدلاً من سرد جميع الحركات - كانت النتائج مختلفة بشكل كبير. قامت نماذج مثل Claude و Gemini و GPT بحل مشاكل برج هانوي بشكل صحيح مع 15 سجلاً، وهو ما يتجاوز بكثير التعقيد الذي أبلغت فيه Apple عن عدم وجود أي نجاحات.

أصوات موثوقة في النقاش

غاري ماركوس: الناقد التاريخي

غاري ماركوسوهو ناقد قديم لمهارات الاستدلال لدى طلبة الماجستير في القانون (LLMs)، تبنى نتائج شركة Apple كتأكيد لأطروحته التي استمرت 20 عاماً. فوفقاً لماركوس، لا يزال طلاب الماجستير في القانون يعانون من "التحول في التوزيع" - أي القدرة على التعميم خارج نطاق بيانات التدريب - بينما يظلون "بارعين في حل المشاكل التي تم حلها بالفعل".

مجتمع اللاما المحلي

امتد النقاش أيضًا إلى مجتمعات متخصصة مثل LocalLlama على موقع Redditحيث يناقش المطورون والباحثون الآثار العملية المترتبة على النماذج مفتوحة المصدر والتنفيذ المحلي.

ما وراء الجدل: ماذا يعني ذلك بالنسبة للشركات

التداعيات الاستراتيجية

هذا النقاش ليس أكاديميًا بحتًا. فله آثار مباشرة على:

  • نشر الذكاء الاصطناعي في الإنتاج: إلى أي مدى يمكننا الوثوق بالنماذج في المهام الحرجة؟
  • استثمارات البحث والتطوير: أين يجب تركيز الموارد لتحقيق الاختراق التالي؟
  • التواصل مع أصحاب المصلحة: كيف يمكن إدارة التوقعات الواقعية لقدرات الذكاء الاصطناعي؟

الطريقة العصبية الرمزية العصبية

كما هو موضح في العديد من الرؤى التقنيةهناك حاجة متزايدة لمقاربات هجينة تجمع بين

  • الشبكات العصبية للتعرف على الأنماط وفهم اللغة
  • الأنظمة الرمزية للتفكير الخوارزمي والمنطق الرسمي

مثال بسيط: مساعد ذكاء اصطناعي يساعد في مسك الدفاتر. يفهم نموذج اللغة عندما تسأل "كم أنفقت على السفر هذا الشهر؟" ويستخرج المعلمات ذات الصلة (الفئة: السفر، الفترة: هذا الشهر). لكن استعلام SQL الذي يستعلم عن قاعدة البيانات ويحسب المجموع ويتحقق من القيود المالية؟ يتم ذلك بواسطة كود حتمي، وليس النموذج العصبي.

التوقيت والسياق الاستراتيجي

لم يغب عن بال المراقبين أن ورقة أبل نُشرت قبل فترة وجيزة من نشر WWDC، مما أثار تساؤلات حول الدوافع الاستراتيجية. كما جاء فيتحليل 9to5Mac"أثار توقيت ورقة آبل البحثية - قبل مؤتمر WWDC مباشرةً - بعض التساؤلات. هل كان هذا حدثاً بحثياً بارزاً أم خطوة استراتيجية لإعادة تموضع أبل في مشهد الذكاء الاصطناعي الأوسع؟

دروس للمستقبل

للباحثين

  • التصميم التجريبي: أهمية التمييز بين القيود المعمارية وقيود التنفيذ
  • تقييم صارم: الحاجة إلى معايير متطورة تفصل بين القدرات المعرفية والقيود العملية
  • الشفافية المنهجية: الالتزام بالتوثيق الكامل للإعدادات التجريبية والقيود

للشركات

  • التوقعات الواقعية: إدراك الحدود الحالية دون التخلي عن الإمكانيات المستقبلية
  • النهج الهجينة: الاستثمار في الحلول التي تجمع بين نقاط القوة في التقنيات المختلفة
  • التقييم المستمر: تنفيذ أنظمة اختبار تعكس سيناريوهات الاستخدام الواقعية

الاستنتاجات: الإبحار في حالة عدم اليقين

يذكرنا النقاش الذي أثارته أوراق آبل بأننا ما زلنا في المراحل الأولى من فهم الذكاء الاصطناعي. كما أشرنا في مقالنا السابقفإن التمييز بين المحاكاة والاستدلال الحقيقي لا يزال أحد أكثر التحديات تعقيدًا في عصرنا الحالي.

لا تكمن العبرة الحقيقية في ما إذا كانت أدوات الذكاء الاصطناعي المحلية قادرة على "التفكير" بالمعنى الإنساني للمصطلح أم لا، بل في كيفية بناء أنظمة تستغل نقاط قوتها مع تعويض أوجه القصور فيها. في عالم يُحدث فيه الذكاء الاصطناعي بالفعل تحولاً في قطاعات بأكملها، لم يعد السؤال المطروح هو ما إذا كانت هذه الأدوات "ذكية" أم لا، بل كيف يمكن استخدامها بفعالية ومسؤولية.

من المحتمل ألا يكمن مستقبل الذكاء الاصطناعي للمؤسسات في نهج ثوري واحد، ولكن في التنسيق الذكي للعديد من التقنيات التكميلية. وفي هذا السيناريو، تصبح القدرة على التقييم النقدي والصادق لقدرات أدواتنا ميزة تنافسية بحد ذاتها.

للحصول على رؤى حول استراتيجية الذكاء الاصطناعي لمؤسستك وتنفيذ حلول قوية، يتوفر فريق الخبراء لدينا لتقديم استشارات مخصصة.

المصادر والمراجع:

موارد لنمو الأعمال التجارية

9 نوفمبر 2025

دليل كامل لبرمجيات ذكاء الأعمال للشركات الصغيرة والمتوسطة

60% من الشركات الإيطالية الصغيرة والمتوسطة الحجم تعترف بوجود ثغرات خطيرة في التدريب على البيانات، و29% منها ليس لديها حتى رقم مخصص - بينما ينمو سوق ذكاء الأعمال الإيطالي من 36.79 مليار دولار إلى 69.45 مليار دولار بحلول عام 2034 (معدل نمو سنوي مركب بنسبة 8.56%). لا تكمن المشكلة في التكنولوجيا بل في النهج المتبع: تغرق الشركات الصغيرة والمتوسطة في البيانات المبعثرة بين إدارة علاقات العملاء، وتخطيط موارد المؤسسات، وأوراق إكسل دون تحويلها إلى قرارات. وينطبق ذلك على أولئك الذين يبدأون من الصفر كما هو الحال بالنسبة لأولئك الذين يرغبون في التحسين. معايير الاختيار التي لها أهمية: سهولة الاستخدام بالسحب والإفلات دون الحاجة إلى أشهر من التدريب، وقابلية التوسع التي تنمو معك، والتكامل الأصلي مع الأنظمة الحالية، والتكلفة الإجمالية للملكية (التنفيذ + التدريب + الصيانة) مقابل سعر الترخيص وحده. خارطة الطريق المكونة من 4 خطوات - أهداف قابلة للقياس وقابلة للقياس وقابلة للقياس (تقليل معدل التخبط بنسبة 15% في 6 أشهر)، وتخطيط مصدر البيانات النظيف (القمامة الواردة = القمامة الخارجة)، وتدريب فريق ثقافة البيانات، ومشروع تجريبي مع حلقة تغذية راجعة مستمرة. يغيّر الذكاء الاصطناعي كل شيء: من ذكاء الأعمال الوصفي (ما حدث) إلى التحليلات المعززة التي تكشف الأنماط الخفية، والتنبؤية التي تقدر الطلب المستقبلي، والوصفية التي تقترح إجراءات ملموسة. يعمل Electe على إضفاء الطابع الديمقراطي على هذه القوة للشركات الصغيرة والمتوسطة.
9 نوفمبر 2025

نظام التبريد بالذكاء الاصطناعي من Google DeepMind: كيف يُحدث الذكاء الاصطناعي ثورة في كفاءة الطاقة في مراكز البيانات

يحقق Google DeepMind نسبة -40% من طاقة تبريد مركز البيانات (ولكن فقط -4% من إجمالي الاستهلاك، حيث إن التبريد يمثل 10% من الإجمالي) - دقة 99.6% مع خطأ بنسبة 0.4% على PUE 1.1 من خلال 5 طبقات من التعلم العميق، و50 عقدة، و19 متغير إدخال على 184,435 عينة تدريب (بيانات عامين). تم تأكيده في 3 منشآت: سنغافورة (أول نشر عام 2016)، وإيمشافن، وكاونسل بلافز (استثمار بقيمة 5 مليارات دولار). PUE على مستوى الأسطول على مستوى Google 1.09 مقابل متوسط الصناعة 1.56-1.58. يتنبأ نموذج التحكم التنبؤي بدرجة الحرارة/الضغط في الساعة التالية من خلال إدارة أحمال تكنولوجيا المعلومات والطقس وحالة المعدات في نفس الوقت. أمان مضمون: تحقق من مستويين، يمكن للمشغلين تعطيل الذكاء الاصطناعي دائماً. القيود الحرجة: عدم وجود تحقق مستقل من شركات التدقيق/المختبرات الوطنية، يتطلب كل مركز بيانات نموذجًا مخصصًا (8 سنوات لم يتم تسويقه أبدًا). يتطلب التنفيذ من 6 إلى 18 شهرًا فريقًا متعدد التخصصات (علوم البيانات، والتدفئة والتهوية وتكييف الهواء، وإدارة المرافق). قابل للتطبيق خارج مراكز البيانات: المنشآت الصناعية والمستشفيات ومراكز التسوق ومكاتب الشركات. 2024-2025: انتقال Google إلى التبريد السائل المباشر لوحدة المعالجة الحرارية TPU v5p، مما يشير إلى الحدود العملية لتحسين الذكاء الاصطناعي.
9 نوفمبر 2025

لماذا الرياضيات صعبة (حتى لو كنت من الذكاء الاصطناعي)

النماذج اللغوية لا تعرف كيف تضاعف حفظ النتائج بالطريقة التي نحفظ بها الباي (pi)، ولكن هذا لا يجعلها رياضيات. المشكلة هيكلية: فهي تتعلم عن طريق التشابه الإحصائي، وليس عن طريق الفهم الخوارزمي. حتى "النماذج المنطقية" الجديدة مثل o1 تفشل في المهام التافهة: فهي تحسب بشكل صحيح حرف "r" في كلمة "فراولة" بعد ثوانٍ من المعالجة، ولكنها تفشل عندما يتعين عليها كتابة فقرة حيث يشكل الحرف الثاني من كل جملة كلمة. يستغرق الإصدار المميز الذي تبلغ تكلفته 200 دولار شهرياً أربع دقائق لحل ما يقوم به الطفل على الفور. لا يزال DeepSeek و Mistral في عام 2025 يخطئان في عد الحروف. الحل الناشئ؟ نهج هجين - لقد اكتشفت أذكى النماذج متى تستدعي آلة حاسبة حقيقية بدلاً من محاولة إجراء العملية الحسابية بنفسها. نقلة نوعية: ليس من الضروري أن يعرف الذكاء الاصطناعي كيفية القيام بكل شيء ولكن يجب أن ينظم الأدوات الصحيحة. مفارقة أخيرة: يمكن لـ GPT-4 أن يشرح لك ببراعة نظرية النهايات ولكنه يخطئ في عمليات الضرب التي تحلّها آلة حاسبة الجيب بشكل صحيح دائماً. بالنسبة لتعليم الرياضيات فهي ممتازة - تشرح بصبر لا متناهٍ، وتكيّف الأمثلة، وتحلل المنطق المعقد. للعمليات الحسابية الدقيقة؟ اعتمد على الآلة الحاسبة، وليس على الذكاء الاصطناعي.