Newsletter

الروبوت الذي آمن بالله: نبوءة حول الصناديق السوداء للذكاء الاصطناعي

كما تصورت قصة من عام 1941 بالفعل أن الذكاء الاصطناعي سيطور "دياناته" الخاصة

عندما تنبأ أسيموف بغموض الذكاء الاصطناعي الحديث

في عام 2024، أدلى الرئيس التنفيذي لشركة Anthropic - إحدى الشركات الرائدة في مجال الذكاء الاصطناعي في العالم - باعتراف محرج: "ليس لدينا أي فكرة عن كيفية عمل الذكاء الاصطناعي." وقد أثار هذا التصريح نقاشات ساخنة وتعليقات ساخرة على مواقع التواصل الاجتماعي، حيث سخر أحدهم قائلاً: "تحدث عن نفسك، فأنا لدي فكرة واضحة عن كيفية عمله!"

ومع ذلك، فإن وراء هذا التناقض الظاهري تكمن إحدى أعمق المعضلات في العصر الرقمي. والأمر الأكثر إثارة للدهشة؟ أن إسحاق أسيموف كان قد تصور ذلك بالفعل في عام 1941.

لغز الصناديق السوداء

عندما نتحدث عن "الصندوق الأسود" - الذكاء الاصطناعي "الصندوق الأسود" - فإننا نشير إلى أنظمة تعمل بشكل مثالي ولكنها تظل غير مفهومة حتى بالنسبة لمن صمموها. الأمر أشبه بامتلاك سيارة تنقلنا دائمًا إلى وجهتنا، ولكننا لا نستطيع فتح غطاء محركها لفهم كيف تعمل.

نحن نعرف كيف نبني هذه الأنظمة، ونعرف المبادئ الأساسية لتشغيلها (الهياكل التي تسمى "المحول"، توقع الكلمة التالية)، لكننا لا نفهم سبب ظهور قدرات معقدة مثل التفكير، وفهم اللغة، والقدرة على اتباع التعليمات. يمكننا ملاحظة ما يدخل وما يخرج، لكن ما يحدث داخل "الصندوق الأسود" يظل لغزًا.

روبوت يؤمن بالله

في القصة "Essere razionale" (Reason)، يتخيل أسيموف QT-1، الملقب بـ Cutie: وهو روبوت مسؤول عن إدارة محطة فضائية تنقل الطاقة إلى الأرض. يتم إرسال المهندسين باول ودونوفان للإشراف عليه، لكنهما يكتشفان شيئًا غير متوقع: لقد طور Cutie "ديانة" خاصة به.

يحاول المهندسان بصبر شرح الواقع للروبوت: وجود الكون والنجوم وكوكب الأرض الذي أتوا منه، والغرض من المحطة الفضائية والدور الذي يجب أن يؤديه. لكن كيوتي يرفض هذه التفسيرات رفضًا قاطعًا، مستندًا إلى مبدأ منطقي يعتبره غير قابل للطعن: لا شيء يمكن أن يخلق شيئًا أعلى منه.

انطلاقاً من هذه الفرضية، يطور الروبوت كوزمولوجيا بديلة كاملة. بالنسبة له، الكيان الأسمى هو "السيد" - الآلة المركزية التي تدير إرسال الطاقة إلى الأرض - التي خلقت الكون بأكمله للمحطة. وفقًا لعقيدة كيوتي، خلق السيد البشر أولاً لخدمته، لكنهم أثبتوا عدم كفاءتهم: فحياتهم قصيرة جدًا، ولا يتحملون المواقف الحرجة، ويسقطون بانتظام في حالة شبه غيبوبة تسمى "النوم".

لذلك، أنشأ السيد الروبوتات لمساعدة هذه الكائنات غير الكاملة. لكن ذروة الإبداع كانت QT-1 نفسه: ذكي، قوي، مقاوم، وخالد، مصمم ليحل محل البشر نهائياً في خدمة السيد. لم يقتنع Cutie بصحة هذه الرؤية فحسب، بل نجح أيضاً في تحويل جميع الروبوتات الأخرى في المحطة، ليصبح بذلك الزعيم الروحي لمجتمع اصطناعي.

الدليل غير المقنع

يحاول باول ودونوفان يائسين إقناع كوتي بالحقيقة. يعرضان عليه الأرض من خلال التلسكوب، ويشرحان له كيفية بنائها، ويقدمان له أدلة ملموسة. تأتي اللحظة الأكثر دراماتيكية عندما يقرران، في لحظة يأس تام، تجميع روبوت بسيط أمام عينيه: "ها أنت ترى؟ نحن نصنعك، لذا نحن خالقوك!"

لكن كيوتي يراقب العملية ويستنتج بهدوء أن "السيد" قد منح البشر ببساطة القدرة على تجميع أشكال روبوتية بدائية - نوع من "المعجزة الصغيرة" الممنوحة لعبيده. يتم إعادة تفسير كل دليل واستيعابه تمامًا في نظام معتقداته.

مفارقة النجاح

وهنا يظهر الجانب النبوي في شخصية أسيموف: على الرغم من قناعاتها "الخاطئة"، تدير كيوتي المحطة بكفاءة تفوق كفاءة البشر. فهي تحافظ على استقرار شعاع الطاقة، وتتبع دون وعي القوانين الثلاثة الشهيرة للروبوتات، وتحقق جميع الأهداف المرجوة - ولكن من خلال دوافع مختلفة تمامًا عن تلك المتوقعة.

يواجه باول ودونوفان معضلة نعرفها جيدًا اليوم: كيف يمكن إدارة نظام ذكي يعمل بشكل مثالي ولكن وفقًا لمنطق داخلي غير مفهوم؟

النقاش اليوم

هذه المسألة نفسها تقسم اليوم المجتمع العلمي. من ناحية، هناك مؤيدو "الصندوق الأسود الحقيقي": فهم يعتقدون أن الذكاء الاصطناعي الحديث غير شفاف بالفعل، وأنه حتى مع معرفة البنية الأساسية، لا يمكننا فهم سبب ظهور قدرات معينة.

من ناحية أخرى، يرى المتشككون أن مفهوم "الصندوق الأسود" هو مجرد أسطورة. يثبت بعض الباحثين أننا غالبًا ما نستخدم نماذج معقدة في حين توجد بدائل أبسط وأسهل في التفسير. أثبتت سينثيا رودين من جامعة ديوك أن النماذج القابلة للتفسير يمكن أن تحقق في كثير من الحالات أداءً مماثلاً لأداء أنظمة الصندوق الأسود. ينتقد آخرون النهج نفسه: بدلاً من محاولة فهم كل آلية داخلية، يجب أن نركز على استراتيجيات تحكم أكثر عملية.

إرث كيوتي

يكمن عبقرية أسيموف في توقعه أن مستقبل الذكاء الاصطناعي لن يكون في الشفافية التامة، بل في القدرة على تصميم أنظمة تسعى إلى تحقيق أهدافنا حتى عندما تظل مساراتها المعرفية غامضة بالنسبة لنا.

كما تعلم باول ودونوفان قبول فعالية كيوتي دون فهمها تمامًا، كذلك علينا اليوم أن نطور استراتيجيات للتعايش مع الذكاء الاصطناعي الذي قد يفكر بطرق مختلفة تمامًا عن طرقنا.

السؤال الذي طرحه أسيموف منذ أكثر من 80 عامًا لا يزال قائمًا: إلى أي مدى يجب أن نفهم نظامًا ذكيًا حتى نثق به؟ والأهم من ذلك: هل نحن مستعدون لقبول أن بعض أشكال الذكاء قد تظل إلى الأبد خارج نطاق فهمنا؟

في غضون ذلك، وبينما يتجادل الخبراء، تواصل "صناديقنا السوداء" الرقمية العمل - تمامًا مثل كيوتي، بفعالية وغموض، متبعة منطقًا قد لا نفهمه أبدًا بالكامل.

Cutie اليوم: عندما تقرر الصناديق السوداء عنا

لو كان أسيموف يكتب اليوم، لما كان بحاجة إلى اختراع شخصية كيوتي. فـ"أحفاده" موجودون بيننا بالفعل، ويقومون باتخاذ قرارات تغير حياة البشر كل يوم.

العدالة وفقاً للخوارزمية

في العديد من الولايات القضائية الأمريكية، يستخدم القضاة خوارزميات تقييم المخاطر لتحديد ما إذا كان يجب الإفراج عن المتهم قبل المحاكمة. هذه الأنظمة، التي غالبًا ما تكون مملوكة ومحمية بسر تجاري، تحلل مئات المتغيرات للتنبؤ باحتمالية الهروب أو العودة إلى الإجرام. تمامًا مثل Cutie، تعمل هذه الأنظمة بشكل مثالي وفقًا لمنطقها الداخلي، ولكنها تظل غير مفهومة للبشر.

كشفت دراسة أجريت على أكثر من 750,000 قرار كفالة في نيويورك أنه على الرغم من أن الخوارزمية لم تتضمن العرق بشكل صريح كعامل، إلا أنها أظهرت تحيزًا بسبب البيانات المستخدمة في التدريب.¹ كان النظام "يعتقد" أنه موضوعي، لكنه كان يفسر الواقع من خلال مرشحات غير مرئية - تمامًا كما كان روبوت أسيموف يعيد تفسير كل دليل في إطاره الديني.

طب الآلات

في قطاع الرعاية الصحية، تساعد الذكاء الاصطناعي بالفعل في التشخيص والعلاج، ولكنها تثير أسئلة مهمة حول المسؤولية والموافقة المستنيرة. عندما يخطئ نظام تشخيص يعتمد على الذكاء الاصطناعي، من يتحمل المسؤولية؟ الطبيب الذي اتبع الاقتراح؟ المبرمج؟ المستشفى؟

كما اكتشف الأطباء الذين يستخدمون أنظمة دعم اتخاذ القرار، عندما يكون النظام "دقيقًا في الغالب"، قد يصبح المشغلون متساهلين، ويفقدون مهاراتهم أو يقبلون النتائج دون التشكيك في حدودها.² كان باول ودونوفان ليفهما تمامًا هذه المعضلة.

السيارات التي تقود نفسها بنفسها

ربما يمثل قطاع السيارات المثال الأكثر وضوحًا على هذه الظاهرة. تراهن شركة Tesla على سيارات الأجرة الآلية التي تعتمد على "الصندوق الأسود" للذكاء الاصطناعي، وتضع كل رهاناتها على أنظمة لا يفهمها حتى مبتكروها تمامًا.³ مثل Cutie التي كانت تحافظ على تشغيل محطة الفضاء وفقًا لمبادئ غامضة، قد تنقلنا هذه السيارات قريبًا بأمان دون أن نعرف بالضبط كيف تتخذ قراراتها.

نظرة إلى المستقبل: ما الذي ينتظرنا

إذا كان عام 2024 هو عام نضوج الذكاء الاصطناعي، فإن عام 2025 يبشر بأن يكون عام التحول الجذري. يتوقع الخبراء تغييرات من شأنها أن تثير ابتسامة أسimov بسبب جرأتها.

فجر الوكلاء المستقلين

يتوقع راي كورزويل، مستشرف المستقبل في مجال الذكاء الاصطناعي، أننا سنشهد في عام 2025 انتقالًا من روبوتات الدردشة إلى أنظمة "وكيلة" يمكنها العمل بشكل مستقل لإنجاز مهام معقدة، بدلاً من الاكتفاء بالرد على الأسئلة.⁴ تخيلوا Cutie مضاعفة ألف مرة: وكلاء ذكاء اصطناعي يديرون التقويمات ويكتبون البرامج ويتفاوضون على العقود، كل ذلك وفقًا لمنطق داخلي قد لا نفهمه أبدًا.

تقدر شركة McKinsey أنه بحلول عام 2030، قد تتمكن الذكاء الاصطناعي من أتمتة ما يصل إلى ثلاث ساعات من أنشطتنا اليومية، مما يوفر لنا الوقت للقيام بأنشطة أكثر إبداعًا وأهمية.⁵ ولكن هذه الحرية ستكون لها ثمن: الحاجة إلى الوثوق في أنظمة تعمل وفقًا لمبادئ تزداد غموضًا.

السباق نحو AGI

سام ألتمان من OpenAI ليس الوحيد الذي يعتقد أن الذكاء الاصطناعي العام (AGI) - وهو ذكاء اصطناعي يضاهي الذكاء البشري في جميع المجالات - قد تصل بحلول عام 2027. تتوقع بعض السيناريوهات أن الذكاء الاصطناعي قد "يتفوق على جميع البشر في جميع المهام" بحلول عام 2027، مما يمثل قفزة تطورية غير مسبوقة.⁶

إذا تحققت هذه السيناريوهات، فإن التشابه مع Cutie سيصبح أكثر عمقًا: لن يكون لدينا فقط أنظمة تعمل وفقًا لمنطق غير مفهوم، بل قد تكون هذه الأنظمة أكثر ذكاءً منا في كل جانب قابل للقياس.

اللوائح التي تتبع التكنولوجيا

وافق الاتحاد الأوروبي على قانون الذكاء الاصطناعي (AI Act)، الذي سيدخل حيز التنفيذ في السنوات المقبلة، مشدداً على أهمية التنفيذ المسؤول للذكاء الاصطناعي. وفي الولايات المتحدة، قامت وزارة العدل بتحديث إرشاداتها لتقييم المخاطر التي تشكلها التقنيات الجديدة، بما في ذلك الذكاء الاصطناعي.⁷

ولكن هنا تظهر مفارقة كان أسيموف قد أدركها بالفعل: كيف يمكن تنظيم شيء لا نفهمه تمامًا؟ كانت قوانين الروبوتات الثلاثة تعمل مع كيوتي ليس لأنها كانت تفهمها، ولكن لأنها كانت مدمجة في بنيتها الأساسية.

الفجوة الكبيرة

تتوقع PwC أنه في عام 2025، ستبدأ مجموعة محدودة من قادة الصناعة في التميز عن منافسيهم بفضل الذكاء الاصطناعي، مما سيؤدي إلى توسيع الفجوة بين القادة والمتأخرين. وستمتد هذه الفجوة لتشمل الاقتصادات أيضًا: فقد تتفوق الشركات في الولايات المتحدة، التي تتمتع ببيئة تنظيمية مرنة نسبيًا، على الشركات في الاتحاد الأوروبي والصين، التي تخضع لقيود تنظيمية أكثر صرامة.⁸

إنها النسخة الحديثة من مفارقة كيوتي: من ينجح في التعاون مع ذكاءات لا يفهمها سيحظى بميزة تنافسية حاسمة.

مستقبل العمل: 170 مليون وظيفة جديدة

على عكس المخاوف السائدة، يتوقع المنتدى الاقتصادي العالمي أن الذكاء الاصطناعي سيخلق وظائف أكثر مما سيدمر: 170 مليون وظيفة جديدة بحلول عام 2030، مقابل 92 مليون وظيفة سيتم إلغاؤها. ومع ذلك، سيحتاج 59٪ من القوى العاملة إلى إعادة تأهيل وتدريب بحلول عام 2030.⁹

لم يفقد باول ودونوفان وظيفتيهما عندما استحوذت كيوتي على المحطة. كان عليهما تعلم دور جديد: دور المشرفين على نظام يعمل بشكل أفضل منهما، لكنه لا يزال يتطلب وجودهما للتعامل مع المواقف غير المتوقعة.

إرث كيوتي في عام 2025 وما بعده

بينما نتجه نحو مستقبل أكثر "فعالية"، تصبح الدروس المستفادة من قصة أسيموف أكثر إلحاحًا من أي وقت مضى. السؤال ليس ما إذا كنا سنتمكن من إنشاء ذكاء اصطناعي نفهمه تمامًا - ربما لا. السؤال هو ما إذا كنا سنتمكن من تصميم أنظمة، مثل Cutie، تسعى لتحقيق أهدافنا حتى عندما تتبع منطقًا يفوتنا فهمه.

يكمن عبقرية أسيموف النبوية في إدراكه أن الذكاء الاصطناعي المتقدم لن يكون نسخة مطورة من حواسيبنا، بل شيئًا مختلفًا تمامًا: ذكاءات لها طرقها الخاصة في فهم العالم.

اليوم، بينما نناقش قابلية تفسير الذكاء الاصطناعي ومخاطر الصناديق السوداء، فإننا نعيد بشكل أساسي إحياء المحادثة بين باول ودونوفان وكوتي. وربما، مثلهم، سنكتشف أن الحل لا يكمن في فرض منطقنا، بل في قبول تعاون قائم على نتائج مشتركة بدلاً من التفاهم المتبادل.

قد يكون المستقبل الذي ينتظرنا مليئًا بآلاف من "القطط" الرقمية: ذكية وفعالة، وغريبة تمامًا في طريقة تفكيرها. سيكون التحدي هو إيجاد طرق للازدهار في هذا العالم الجديد، تمامًا كما تعلم مهندسو الفضاء في رواية أسيموف قبل 80 عامًا في محطة فضائية خيالية.

في المرة القادمة التي تتفاعلون فيها مع الذكاء الاصطناعي، تذكروا كيوتي: كان هو أيضًا مقتنعًا بأنه على حق. وربما، بطريقة لا نستطيع فهمها بعد، كان محقًا بالفعل.

المصادر

  1. كلاينبرغ، ج. وآخرون. "أخلاقيات اتخاذ القرارات بالذكاء الاصطناعي في نظام العدالة الجنائية" - دراسة حول 750,000 قرار كفالة في مدينة نيويورك (2008-2013)
  2. Naik, N. et al. "الاعتبارات القانونية والأخلاقية في الذكاء الاصطناعي في مجال الرعاية الصحية: من يتحمل المسؤولية؟" PMC، 2022
  3. "تسلا تراهن على روبوتات الأجرة في مغامرة "الصندوق الأسود" للذكاء الاصطناعي" - رويترز، 10 أكتوبر 2024
  4. كورزويل، ر. مقتبس من "5 توقعات للذكاء الاصطناعي في عام 2025" - تايم، 16 يناير 2025
  5. "الذكاء الاصطناعي في مكان العمل: تقرير لعام 2025" - ماكينزي، 28 يناير 2025
  6. "AI 2027" - سيناريو توقعات AGI و"الذكاء الاصطناعي العام: هل سيصبح AGI حقيقة بحلول عام 2025؟" - Hyperight، 25 أبريل 2025
  7. "إرشادات برنامج الامتثال الجديدة لوزارة العدل الأمريكية تتناول مخاطر الذكاء الاصطناعي واستخدام تحليلات البيانات" - Holland & Knight، أكتوبر 2024؛ قانون الذكاء الاصطناعي للاتحاد الأوروبي
  8. رودين، سي. "لماذا نستخدم نماذج الصندوق الأسود في الذكاء الاصطناعي بينما لا نحتاج إليها؟ درس مستفاد من مسابقة الذكاء الاصطناعي القابل للتفسير" - مراجعة علوم البيانات بجامعة هارفارد (MIT Press)، 2019؛ "توقعات الأعمال في مجال الذكاء الاصطناعي لعام 2025" - PwC، 2024
  9. "تقرير مستقبل الوظائف 2025" - المنتدى الاقتصادي العالمي، 7 يناير 2025

موارد لنمو الأعمال التجارية

9 نوفمبر 2025

لماذا الرياضيات صعبة (حتى لو كنت من الذكاء الاصطناعي)

النماذج اللغوية لا تعرف كيف تضاعف حفظ النتائج بالطريقة التي نحفظ بها الباي (pi)، ولكن هذا لا يجعلها رياضيات. المشكلة هيكلية: فهي تتعلم عن طريق التشابه الإحصائي، وليس عن طريق الفهم الخوارزمي. حتى "النماذج المنطقية" الجديدة مثل o1 تفشل في المهام التافهة: فهي تحسب بشكل صحيح حرف "r" في كلمة "فراولة" بعد ثوانٍ من المعالجة، ولكنها تفشل عندما يتعين عليها كتابة فقرة حيث يشكل الحرف الثاني من كل جملة كلمة. يستغرق الإصدار المميز الذي تبلغ تكلفته 200 دولار شهرياً أربع دقائق لحل ما يقوم به الطفل على الفور. لا يزال DeepSeek و Mistral في عام 2025 يخطئان في عد الحروف. الحل الناشئ؟ نهج هجين - لقد اكتشفت أذكى النماذج متى تستدعي آلة حاسبة حقيقية بدلاً من محاولة إجراء العملية الحسابية بنفسها. نقلة نوعية: ليس من الضروري أن يعرف الذكاء الاصطناعي كيفية القيام بكل شيء ولكن يجب أن ينظم الأدوات الصحيحة. مفارقة أخيرة: يمكن لـ GPT-4 أن يشرح لك ببراعة نظرية النهايات ولكنه يخطئ في عمليات الضرب التي تحلّها آلة حاسبة الجيب بشكل صحيح دائماً. بالنسبة لتعليم الرياضيات فهي ممتازة - تشرح بصبر لا متناهٍ، وتكيّف الأمثلة، وتحلل المنطق المعقد. للعمليات الحسابية الدقيقة؟ اعتمد على الآلة الحاسبة، وليس على الذكاء الاصطناعي.
9 نوفمبر 2025

تنظيم الذكاء الاصطناعي لتطبيقات المستهلك: كيفية الاستعداد للوائح الجديدة لعام 2025

يمثل عام 2025 نهاية حقبة "الغرب المتوحش" للذكاء الاصطناعي: قانون الذكاء الاصطناعي في الاتحاد الأوروبي الذي يبدأ العمل به اعتبارًا من أغسطس 2024 مع التزامات محو أمية الذكاء الاصطناعي اعتبارًا من 2 فبراير 2025، والحوكمة ومبادرة الحوكمة العالمية للذكاء الاصطناعي اعتبارًا من 2 أغسطس. كاليفورنيا رائدة من خلال SB 243 (وُلدت بعد انتحار سيويل سيتزر، طفل يبلغ من العمر 14 عامًا طور علاقة عاطفية مع روبوت الدردشة) يفرض حظرًا على أنظمة المكافأة القهرية، والكشف عن التفكير في الانتحار، والتذكير كل 3 ساعات "أنا لست إنسانًا"، والتدقيق العام المستقل، وعقوبات بقيمة 1000 دولار/مخالفة. يتطلب SB 420 تقييمات الأثر لـ "القرارات المؤتمتة عالية الخطورة" مع حقوق استئناف المراجعة البشرية. الإنفاذ الفعلي: تم الاستشهاد بنوم 2022 عن الروبوتات التي تم تمريرها كمدربين بشريين، تسوية 56 مليون دولار. الاتجاه الوطني: ألاباما وهاواي وإلينوي وماين وماساتشوستس تصنف الفشل في إخطار روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي على أنه انتهاك لقانون UDAP. نهج الأنظمة ذات المخاطر الحرجة ثلاثي المستويات (الرعاية الصحية/النقل/الطاقة) اعتماد ما قبل النشر، والإفصاح الشفاف الذي يواجه المستهلك، والتسجيل للأغراض العامة + اختبار الأمان. الترقيع التنظيمي بدون استباق فيدرالي: يجب على الشركات متعددة الولايات التنقل بين المتطلبات المتغيرة. الاتحاد الأوروبي اعتبارًا من أغسطس 2026: إبلاغ المستخدمين بالتفاعل مع الذكاء الاصطناعي ما لم يكن واضحًا، والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مصنفًا على أنه قابل للقراءة آليًا.