Newsletter

وهم التفكير المنطقي: الجدل الذي يهز عالم الذكاء الاصطناعي

تنشر Apple ورقتين بحثيتين مدمّرتين - "GSM-Symbolic" (أكتوبر 2024) و"وهم التفكير" (يونيو 2025) - اللتين توضحان كيف تفشل LLM في الاختلافات الصغيرة للمشاكل الكلاسيكية (برج هانوي، عبور النهر): "ينخفض الأداء عند تغيير القيم العددية فقط". لا نجاح على برج هانوي المعقد. لكن أليكس لوسين (Open Philanthropy) يردّ بـ "وهم التفكير" الذي يوضح المنهجية الفاشلة: كانت الإخفاقات عبارة عن حدود مخرجات رمزية وليس انهياراً في التفكير، وأخطأت النصوص التلقائية في تصنيف المخرجات الصحيحة الجزئية، وكانت بعض الألغاز غير قابلة للحل رياضياً. من خلال تكرار الاختبارات باستخدام الدوال التكرارية بدلاً من سرد الحركات، حل كلود/جيميني/جيميني/جيمبيلي حل برج هانوي 15 سجلاً. يتبنى غاري ماركوس أطروحة Apple حول "تحول التوزيع"، لكن ورقة توقيت ما قبل WWDC تثير أسئلة استراتيجية. الآثار المترتبة على الأعمال: إلى أي مدى يمكن الوثوق بالذكاء الاصطناعي في المهام الحرجة؟ الحل: المناهج العصبية الرمزية العصبية الشبكات العصبية للتعرف على الأنماط + اللغة، والأنظمة الرمزية للمنطق الرسمي. مثال: الذكاء الاصطناعي المحاسبي يفهم "كم نفقات السفر؟" ولكن SQL/ الحسابات/ التدقيق الضريبي = رمز حتمي.
فابيو لوريا
الرئيس التنفيذي ومؤسس شركة Electe‍
عندما يلتقي منطق الذكاء الاصطناعي بالواقع: يطبق الروبوت القاعدة المنطقية بشكل صحيح ولكنه يحدد كرة السلة على أنها برتقالة. استعارة مثالية لكيفية محاكاة الروبوتات المنطقية للعمليات المنطقية دون أن تمتلك فهماً حقيقياً.

على مدى الأشهر القليلة الماضية، شهد مجتمع الذكاء الاصطناعي جدلاً محتدماً أثارته ورقتان بحثيتان مؤثرتان نشرتهما شركة Apple. الأولى "GSM-Symbolic (أكتوبر 2024)، والثانية "وهم التفكير (يونيو 2025)، شككتا في القدرات المنطقية المزعومة لنماذج اللغات الكبيرة، مما أثار ردود فعل متباينة في جميع أنحاء الصناعة.

كما سبق أن حللنا في مقالنا السابق عن "وهم التقدم: محاكاة الذكاء الاصطناعي العام دون تحقيقه".فإن مسألة التفكير الاصطناعي تمس جوهر ما نعتبره ذكاءً في الآلات.

ما الذي تقوله أبحاث Apple

أجرى باحثو شركة Apple تحليلاً منهجياً على نماذج الاستدلال الكبيرة (LRM) - تلك النماذج التي تولد آثاراً تفصيلية للتفكير قبل تقديم إجابة. كانت النتائج مفاجئة ومقلقة للكثيرين.

الاختبارات التي أجريت

أخضعت الدراسة النماذج الأكثر تقدمًا للألغاز الخوارزمية الكلاسيكية مثل:

  • برج هانوي: لغز رياضي تم حله لأول مرة عام 1957
  • مشاكل عبور الأنهار: ألغاز منطقية ذات قيود محددة
  • المعيار الرمزي GSM-المعيار الرمزي: تنويعات المسائل الرياضية على المستوى الابتدائي

اختبار التفكير باستخدام ألغاز كلاسيكية: تعد مشكلة المزارع والذئب والماعز والملفوف أحد الألغاز المنطقية المستخدمة في دراسات Apple لتقييم قدرات التفكير لدى طلاب LLM. تكمن الصعوبة في إيجاد التسلسل الصحيح للعبور مع تجنب أكل الذئب للماعز أو أكل الماعز للملفوف عند تركه بمفرده. اختبار بسيط ولكنه فعال للتمييز بين الفهم الخوارزمي وحفظ الأنماط.

النتائج المثيرة للجدل

أظهرت النتائج أنه حتى التغييرات الطفيفة في صياغة المشكلة تؤدي إلى اختلافات كبيرة في الأداء، مما يشير إلى هشاشة مقلقة في التفكير. كما ورد في تغطية AppleInsider"ينخفض أداء جميع النماذج عندما يتم تغيير القيم العددية فقط في الأسئلة المعيارية GSM-Symbolic".

الهجوم المضاد: وهم التفكير

لم يتأخر الرد من مجتمع الذكاء الاصطناعي. فقد نشر أليكس لوسن من مؤسسة Open Philanthropy، بالتعاون مع كلود أوبوس من مؤسسة Anthropic، ردًا مفصلاً بعنوان "وهم التفكير".يطعن في منهجيات واستنتاجات دراسة Apple.

الاعتراضات الرئيسية

  1. تجاهل حدود الإخراج: العديد من حالات الفشل التي تُعزى إلى "انهيار المنطق" كانت في الواقع بسبب حدود رمز الإخراج النموذجي
  2. تقييم غير صحيح: صنّفت البرامج النصية التلقائية أيضًا مخرجات جزئية ولكن صحيحة خوارزميًا على أنها فشل كلي
  3. المشكلات المستحيلة: كانت بعض الألغاز غير قابلة للحل رياضيًا، ولكن تم معاقبة النماذج لعدم حلها

اختبارات التأكيد

عندما كرر لوسن الاختبارات بمنهجيات بديلة - حيث طلب من النماذج توليد دوال تكرارية بدلاً من سرد جميع الحركات - كانت النتائج مختلفة بشكل كبير. قامت نماذج مثل Claude و Gemini و GPT بحل مشاكل برج هانوي بشكل صحيح مع 15 سجلاً، وهو ما يتجاوز بكثير التعقيد الذي أبلغت فيه Apple عن عدم وجود أي نجاحات.

أصوات موثوقة في النقاش

غاري ماركوس: الناقد التاريخي

غاري ماركوسوهو ناقد قديم لمهارات الاستدلال لدى طلبة الماجستير في القانون (LLMs)، تبنى نتائج شركة Apple كتأكيد لأطروحته التي استمرت 20 عاماً. فوفقاً لماركوس، لا يزال طلاب الماجستير في القانون يعانون من "التحول في التوزيع" - أي القدرة على التعميم خارج نطاق بيانات التدريب - بينما يظلون "بارعين في حل المشاكل التي تم حلها بالفعل".

مجتمع اللاما المحلي

امتد النقاش أيضًا إلى مجتمعات متخصصة مثل LocalLlama على موقع Redditحيث يناقش المطورون والباحثون الآثار العملية المترتبة على النماذج مفتوحة المصدر والتنفيذ المحلي.

ما وراء الجدل: ماذا يعني ذلك بالنسبة للشركات

التداعيات الاستراتيجية

هذا النقاش ليس أكاديميًا بحتًا. فله آثار مباشرة على:

  • نشر الذكاء الاصطناعي في الإنتاج: إلى أي مدى يمكننا الوثوق بالنماذج في المهام الحرجة؟
  • استثمارات البحث والتطوير: أين يجب تركيز الموارد لتحقيق الاختراق التالي؟
  • التواصل مع أصحاب المصلحة: كيف يمكن إدارة التوقعات الواقعية لقدرات الذكاء الاصطناعي؟

الطريقة العصبية الرمزية العصبية

كما هو موضح في العديد من الرؤى التقنيةهناك حاجة متزايدة لمقاربات هجينة تجمع بين

  • الشبكات العصبية للتعرف على الأنماط وفهم اللغة
  • الأنظمة الرمزية للتفكير الخوارزمي والمنطق الرسمي

مثال بسيط: مساعد ذكاء اصطناعي يساعد في مسك الدفاتر. يفهم نموذج اللغة عندما تسأل "كم أنفقت على السفر هذا الشهر؟" ويستخرج المعلمات ذات الصلة (الفئة: السفر، الفترة: هذا الشهر). لكن استعلام SQL الذي يستعلم عن قاعدة البيانات ويحسب المجموع ويتحقق من القيود المالية؟ يتم ذلك بواسطة كود حتمي، وليس النموذج العصبي.

التوقيت والسياق الاستراتيجي

لم يغب عن بال المراقبين أن ورقة أبل نُشرت قبل فترة وجيزة من نشر WWDC، مما أثار تساؤلات حول الدوافع الاستراتيجية. كما جاء فيتحليل 9to5Mac"أثار توقيت ورقة آبل البحثية - قبل مؤتمر WWDC مباشرةً - بعض التساؤلات. هل كان هذا حدثاً بحثياً بارزاً أم خطوة استراتيجية لإعادة تموضع أبل في مشهد الذكاء الاصطناعي الأوسع؟

دروس للمستقبل

للباحثين

  • التصميم التجريبي: أهمية التمييز بين القيود المعمارية وقيود التنفيذ
  • تقييم صارم: الحاجة إلى معايير متطورة تفصل بين القدرات المعرفية والقيود العملية
  • الشفافية المنهجية: الالتزام بالتوثيق الكامل للإعدادات التجريبية والقيود

للشركات

  • التوقعات الواقعية: إدراك الحدود الحالية دون التخلي عن الإمكانيات المستقبلية
  • النهج الهجينة: الاستثمار في الحلول التي تجمع بين نقاط القوة في التقنيات المختلفة
  • التقييم المستمر: تنفيذ أنظمة اختبار تعكس سيناريوهات الاستخدام الواقعية

الاستنتاجات: الإبحار في حالة عدم اليقين

يذكرنا النقاش الذي أثارته أوراق آبل بأننا ما زلنا في المراحل الأولى من فهم الذكاء الاصطناعي. كما أشرنا في مقالنا السابقفإن التمييز بين المحاكاة والاستدلال الحقيقي لا يزال أحد أكثر التحديات تعقيدًا في عصرنا الحالي.

لا تكمن العبرة الحقيقية في ما إذا كانت أدوات الذكاء الاصطناعي المحلية قادرة على "التفكير" بالمعنى الإنساني للمصطلح أم لا، بل في كيفية بناء أنظمة تستغل نقاط قوتها مع تعويض أوجه القصور فيها. في عالم يُحدث فيه الذكاء الاصطناعي بالفعل تحولاً في قطاعات بأكملها، لم يعد السؤال المطروح هو ما إذا كانت هذه الأدوات "ذكية" أم لا، بل كيف يمكن استخدامها بفعالية ومسؤولية.

من المحتمل ألا يكمن مستقبل الذكاء الاصطناعي للمؤسسات في نهج ثوري واحد، ولكن في التنسيق الذكي للعديد من التقنيات التكميلية. وفي هذا السيناريو، تصبح القدرة على التقييم النقدي والصادق لقدرات أدواتنا ميزة تنافسية بحد ذاتها.

للحصول على رؤى حول استراتيجية الذكاء الاصطناعي لمؤسستك وتنفيذ حلول قوية، يتوفر فريق الخبراء لدينا لتقديم استشارات مخصصة.

المصادر والمراجع:

موارد لنمو الأعمال التجارية

9 نوفمبر 2025

تنظيم الذكاء الاصطناعي لتطبيقات المستهلك: كيفية الاستعداد للوائح الجديدة لعام 2025

يمثل عام 2025 نهاية حقبة "الغرب المتوحش" للذكاء الاصطناعي: قانون الذكاء الاصطناعي في الاتحاد الأوروبي الذي يبدأ العمل به اعتبارًا من أغسطس 2024 مع التزامات محو أمية الذكاء الاصطناعي اعتبارًا من 2 فبراير 2025، والحوكمة ومبادرة الحوكمة العالمية للذكاء الاصطناعي اعتبارًا من 2 أغسطس. كاليفورنيا رائدة من خلال SB 243 (وُلدت بعد انتحار سيويل سيتزر، طفل يبلغ من العمر 14 عامًا طور علاقة عاطفية مع روبوت الدردشة) يفرض حظرًا على أنظمة المكافأة القهرية، والكشف عن التفكير في الانتحار، والتذكير كل 3 ساعات "أنا لست إنسانًا"، والتدقيق العام المستقل، وعقوبات بقيمة 1000 دولار/مخالفة. يتطلب SB 420 تقييمات الأثر لـ "القرارات المؤتمتة عالية الخطورة" مع حقوق استئناف المراجعة البشرية. الإنفاذ الفعلي: تم الاستشهاد بنوم 2022 عن الروبوتات التي تم تمريرها كمدربين بشريين، تسوية 56 مليون دولار. الاتجاه الوطني: ألاباما وهاواي وإلينوي وماين وماساتشوستس تصنف الفشل في إخطار روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي على أنه انتهاك لقانون UDAP. نهج الأنظمة ذات المخاطر الحرجة ثلاثي المستويات (الرعاية الصحية/النقل/الطاقة) اعتماد ما قبل النشر، والإفصاح الشفاف الذي يواجه المستهلك، والتسجيل للأغراض العامة + اختبار الأمان. الترقيع التنظيمي بدون استباق فيدرالي: يجب على الشركات متعددة الولايات التنقل بين المتطلبات المتغيرة. الاتحاد الأوروبي اعتبارًا من أغسطس 2026: إبلاغ المستخدمين بالتفاعل مع الذكاء الاصطناعي ما لم يكن واضحًا، والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مصنفًا على أنه قابل للقراءة آليًا.
9 نوفمبر 2025

تنظيم ما لم يتم إنشاؤه: هل تخاطر أوروبا بعدم ملاءمة التكنولوجيا؟

**العنوان: القانون الأوروبي للذكاء الاصطناعي - مفارقة من ينظم ما لا يتطور** **ملخص: ** تجتذب أوروبا عُشر الاستثمارات العالمية في مجال الذكاء الاصطناعي ولكنها تدعي أنها تملي القواعد العالمية. هذا هو "تأثير بروكسل" - فرض لوائح تنظيمية على نطاق الكوكب من خلال قوة السوق دون دفع الابتكار. يدخل قانون الذكاء الاصطناعي حيز التنفيذ وفق جدول زمني متدرج حتى عام 2027، لكن شركات التكنولوجيا متعددة الجنسيات تستجيب باستراتيجيات تهرب مبتكرة: التذرع بالأسرار التجارية لتجنب الكشف عن بيانات التدريب، وإنتاج ملخصات متوافقة تقنياً ولكنها غير مفهومة، واستخدام التقييم الذاتي لخفض مستوى الأنظمة من "عالية المخاطر" إلى "قليلة المخاطر"، والتسوق من خلال اختيار الدول الأعضاء ذات الضوابط الأقل صرامة. مفارقة حقوق النشر خارج الحدود الإقليمية: يطالب الاتحاد الأوروبي بأن تمتثل OpenAI للقوانين الأوروبية حتى بالنسبة للتدريب خارج أوروبا - وهو مبدأ لم يسبق له مثيل في القانون الدولي. ظهور "النموذج المزدوج": إصدارات أوروبية محدودة مقابل إصدارات عالمية متقدمة من منتجات الذكاء الاصطناعي نفسها. الخطر الحقيقي: أن تصبح أوروبا "قلعة رقمية" معزولة عن الابتكار العالمي، مع وصول المواطنين الأوروبيين إلى تقنيات أقل شأناً. وقد رفضت محكمة العدل في قضية تسجيل الائتمان بالفعل دفاع "الأسرار التجارية"، ولكن لا يزال عدم اليقين التفسيري هائلاً - ماذا يعني بالضبط "ملخص مفصل بما فيه الكفاية"؟ لا أحد يعرف. السؤال الأخير الذي لم تتم الإجابة عليه: هل يخلق الاتحاد الأوروبي طريقًا ثالثًا أخلاقيًا بين الرأسمالية الأمريكية وسيطرة الدولة الصينية، أم أنه ببساطة يصدّر البيروقراطية إلى مجال لا ينافسه فيه أحد؟ في الوقت الحالي: رائد عالمي في تنظيم الذكاء الاصطناعي، وهامشي في تطويره. برنامج واسع.
9 نوفمبر 2025

القيم المتطرفة: حيث يلتقي علم البيانات مع قصص النجاح

لقد قلب علم البيانات النموذج رأساً على عقب: لم تعد القيم المتطرفة "أخطاء يجب التخلص منها" بل معلومات قيّمة يجب فهمها. يمكن أن يؤدي وجود قيمة متطرفة واحدة إلى تشويه نموذج الانحدار الخطي تمامًا - تغيير الميل من 2 إلى 10 - ولكن التخلص منها قد يعني فقدان أهم إشارة في مجموعة البيانات. يقدم التعلم الآلي أدوات متطورة: تقوم غابة العزل بعزل القيم المتطرفة من خلال بناء أشجار قرار عشوائية، ويقوم عامل التطرف المحلي بتحليل الكثافة المحلية، وتقوم أجهزة الترميز التلقائي بإعادة بناء البيانات العادية والإبلاغ عما لا تستطيع إعادة إنتاجه. هناك قيم متطرفة عالمية (درجة الحرارة -10 درجات مئوية في المناطق الاستوائية)، وقيم متطرفة سياقية (إنفاق 1000 يورو في حي فقير)، وقيم متطرفة جماعية (شبكة حركة المرور المتزامنة التي تشير إلى حدوث هجوم). بالتوازي مع غلادويل: "قاعدة الـ 10,000 ساعة" محل جدل - بول مكارتني ديكسيت "العديد من الفرق الموسيقية قامت بـ 10,000 ساعة في هامبورغ دون نجاح، النظرية ليست معصومة". النجاح الحسابي الآسيوي ليس وراثيًا بل ثقافيًا: النظام العددي الصيني أكثر بديهية، زراعة الأرز تتطلب تحسينًا مستمرًا مقابل التوسع الإقليمي للزراعة الغربية. تطبيقات حقيقية: تستعيد بنوك المملكة المتحدة 18% من الخسائر المحتملة من خلال الكشف عن الشذوذ في الوقت الحقيقي، ويكتشف التصنيع العيوب المجهرية التي قد يفوتها الفحص البشري، وتتحقق الرعاية الصحية من صحة بيانات التجارب السريرية بحساسية تزيد عن 85% من كشف الشذوذ. الدرس الأخير: مع انتقال علم البيانات من القضاء على القيم المتطرفة إلى فهمها، يجب أن ننظر إلى المهن غير التقليدية ليس على أنها حالات شاذة يجب تصحيحها ولكن كمسارات قيّمة يجب دراستها.