الأعمال التجارية

أنظمة دعم اتخاذ القرار بالذكاء الاصطناعي: صعود دور المستشارين في قيادة الشركات

77% من الشركات تستخدم الذكاء الاصطناعي ولكن 1% فقط من الشركات لديها تطبيقات "ناضجة" - المشكلة ليست في التكنولوجيا ولكن في النهج: الأتمتة الكاملة مقابل التعاون الذكي. يحقق غولدمان ساكس مع مستشار الذكاء الاصطناعي على 10,000 موظف كفاءة توعية بنسبة 30٪ و12٪ من المبيعات المتبادلة مع الحفاظ على القرارات البشرية؛ وتمنع كايزر بيرماننتى 500 حالة وفاة/سنة من خلال تحليل 100 عنصر/ساعة قبل 12 ساعة ولكنها تترك التشخيص للأطباء. نموذج المستشار يحل فجوة الثقة (44% فقط يثقون في الذكاء الاصطناعي للشركات) من خلال ثلاث ركائز: الذكاء الاصطناعي القابل للتفسير مع المنطق الشفاف، ودرجات الثقة المعايرة، والتغذية الراجعة المستمرة للتحسين. الأرقام: تأثير بقيمة 22.3 تريليون دولار بحلول عام 2030، سيشهد موظفو الذكاء الاصطناعي الاستراتيجي عائد استثمار يبلغ 4 أضعاف بحلول عام 2026. خارطة طريق عملية من 3 خطوات - مهارات التقييم والحوكمة، والتجربة مع مقاييس الثقة، والتوسع التدريجي مع التدريب المستمر - تنطبق على التمويل (تقييم المخاطر تحت الإشراف)، والرعاية الصحية (الدعم التشخيصي)، والتصنيع (الصيانة التنبؤية). لا يتمثل المستقبل في حلول الذكاء الاصطناعي محل البشر، بل في التنسيق الفعال للتعاون بين الإنسان والآلة.
فابيو لوريا
الرئيس التنفيذي ومؤسس شركة Electe‍

نموذج مستشاري الذكاء الاصطناعي: ثورة صامتة

ما وراء الأتمتة: نحو التعاون الذكي

ما نلاحظه هو التبني الواسع النطاق لما نسميه "نموذج المستشار" في دمج الذكاء الاصطناعي. فبدلاً من تفويض سلطة اتخاذ القرار بالكامل للخوارزميات، تقوم المؤسسات المتقدمة بتطوير أنظمة

  • تقديم تحليل شامل لبيانات الشركة
  • فهي تحدد الأنماط الخفية التي قد يفوتها المراقبون البشريون
  • عرض الخيارات مع الاحتمالات والمخاطر المرتبطة بها
  • إنهم يبقون الحكم النهائي في أيدي القادة البشريين

يعالج هذا النهج أحد التحديات المستمرة في تبني الذكاء الاصطناعي: نقص الثقة. من خلال وضع الذكاء الاصطناعي كمستشار وليس كبديل، وجدت الشركات أن الموظفين وأصحاب المصلحة أكثر تقبلاً لهذه التقنيات، لا سيما في المجالات التي يكون للقرارات فيها تأثير كبير على الإنسان.

دراسات الحالة: رواد الصناعة

جولدمان ساكس: مساعد الذكاء الاصطناعي للشركات

ويُعد بنك جولدمان ساكس مثالاً رئيسيًا على هذا الاتجاه. فقد قام البنك بتطبيق "مساعد الذكاء الاصطناعي GS" لحوالي 10,000 موظف، بهدف توسيع نطاقه ليشمل جميع العاملين في مجال المعرفة بحلول عام 2025.

وكما يوضح ماركو أرجينتي كبير مسؤولي المعلومات: "يصبح مساعد الذكاء الاصطناعي في الواقع مثل التحدث إلى موظف آخر من موظفي جي إس. لا يقوم النظام بتنفيذ المعاملات المالية تلقائياً، ولكنه يتفاعل مع لجان الاستثمار من خلال إحاطات مفصلة تعزز عملية اتخاذ القرار البشري.

نتائج قابلة للقياس:

  • زيادة كفاءة التواصل مع العملاء بنسبة 30%
  • نمو بنسبة 12% على أساس سنوي في المبيعات التبادلية للمنتجات
  • تحسين صافي نقاط المروجين (NPS) بين العملاء

كايزر بيرماننت: الذكاء الاصطناعي لإنقاذ الأرواح

في القطاع الصحي، طبقت شركة Kaiser Permanente نظام مراقبة الإنذار المسبق (AAM)، الذي يحلل ما يقرب من 100 عنصر من السجلات الصحية للمرضى كل ساعة، مما يوفر للأطباء إشعارًا مسبقًا قبل 12 ساعة من التدهور السريري.

التأثير الموثق:

والأهم من ذلك أن النظام لا يقوم بالتشخيص التلقائي ولكنه يضمن احتفاظ الأطباء بسلطة اتخاذ القرار من خلال الاستفادة من الذكاء الاصطناعي الذي يمكنه معالجة آلاف الحالات المتشابهة.

الكفاءات الثلاث الأساسية للنجاح

1. الواجهات القابلة للتفسير (الذكاء الاصطناعي القابل للتفسير)

يعد الذكاء الاصطناعي القابل للتفسير (XAI) أمرًا بالغ الأهمية لبناء الثقة والاطمئنان عند تطبيق نماذج الذكاء الاصطناعي في الإنتاج. حيث تقوم المؤسسات الناجحة بتطوير أنظمة لا تنقل الاستنتاجات فحسب، بل أيضاً المنطق الكامن وراءها.

فوائد مثبتة:

2. مقاييس الثقة المعايرة

يمكن أن تساعد درجات الثقة في معايرة ثقة الأشخاص في نموذج الذكاء الاصطناعي، مما يسمح للخبراء البشريين بتطبيق معرفتهم بشكل مناسب. توفر الأنظمة الفعالة:

  • درجات ثقة دقيقة تعكس الاحتمالية الحقيقية للنجاح
  • مؤشرات عدم اليقين الشفافة
  • مقاييس الأداء في الوقت الحقيقي

3. دورات التغذية الراجعة المستمرة

يمكن حساب معدل تحسن النموذج من خلال أخذ الفرق بين أداء الذكاء الاصطناعي في أوقات مختلفة، مما يسمح بالتحسين المستمر للنظام. تطبق المنظمات الرائدة:

  • أنظمة مراقبة الأداء
  • جمع الملاحظات المنظمة من المستخدمين
  • تحديثات تلقائية بناءً على النتائج

ميزان المساءلة: سبب نجاحه

يحل هذا النهج الهجين بأناقة واحدة من أكثر المشكلات تعقيدًا في تطبيق الذكاء الاصطناعي:المساءلة. عندما تتخذ الخوارزميات قرارات مستقلة، تصبح مسائل المساءلة معقدة. يحافظ نموذج المستشار على تسلسل واضح للمسؤولية مع تسخير القوة التحليلية للذكاء الاصطناعي.

الاتجاه 2025: البيانات والتوقعات

التبني السريع

77 في المائة من الشركات تستخدم أو تستكشف استخدام الذكاء الاصطناعي في أعمالها، بينما تقول 83 في المائة من الشركات إن الذكاء الاصطناعي يمثل أولوية قصوى في خطط أعمالها.

عائد الاستثمار والأداء

من المتوقع أن تولد الاستثمارات في حلول وخدمات الذكاء الاصطناعي تأثيرًا عالميًا تراكميًا يبلغ 22.3 تريليون دولار بحلول عام 2030، وهو ما يمثل حوالي 3.7 في المائة من الناتج المحلي الإجمالي العالمي.

فجوة النضج

على الرغم من ارتفاع معدل التبني، فإن 1% فقط من المديرين التنفيذيين في قطاع الأعمال يصفون تطبيقات الذكاء الاصطناعي التوليدي لديهم بأنها "ناضجة"، مما يسلط الضوء على أهمية النهج المنظمة مثل نموذج المستشار.

الآثار الاستراتيجية المترتبة على الشركات

الميزة التنافسية

تنتمي الميزة التنافسية بشكل متزايد إلى المؤسسات التي يمكنها الجمع بفعالية بين الحكم البشري وتحليل الذكاء الاصطناعي. لا يتعلق الأمر ببساطة بالوصول إلى خوارزميات متطورة، بل يتعلق بإنشاء هياكل تنظيمية وسير عمل يسهل التعاون المثمر بين الإنسان والذكاء الاصطناعي.

التحوّل الثقافي

تلعب القيادة دوراً حاسماً في تشكيل سيناريوهات التعاون بين البشر والآلات. فالشركات التي تتفوق في هذا المجال تسجل معدلات رضا وتبني أعلى بكثير بين الموظفين الذين يعملون مع أنظمة الذكاء الاصطناعي.

التنفيذ العملي: خارطة طريق للشركات

المرحلة 1: التقييم والإعداد

  1. تقييم المهارات الحالية
  2. تحديد حالات الاستخدام ذات الأولوية
  3. تطوير أطر الحوكمة

المرحلة 2: المرحلة التجريبية والاختبار

  1. تنفيذ مشاريع تجريبية محدودة
  2. جمع مقاييس الأداء والثقة
  3. التكرار القائم على التغذية الراجعة

الخطوة 3: القياس والتحسين

  1. التوسع التدريجي من خلال التنظيم
  2. التدريب المستمر للموظفين
  3. المراقبة والتحسين المستمر

قطاعات الخطوط الأمامية

الخدمات المالية

  • التقييم الآلي للمخاطر بإشراف بشري
  • كشف الاحتيال مع تفسيرات قابلة للتفسير
  • إدارة المحافظ الاستثمارية بتوصيات شفافة

الرعاية الصحية

  • الدعم التشخيصي مع الحفاظ على السلطة الطبية
  • أنظمة الإنذار المبكر للوقاية من المضاعفات
  • تخطيط علاجي مخصص وقائم على الأدلة

التصنيع

  • الصيانة التنبؤية مع درجة الثقة
  • مراقبة الجودة الآلية مع الإشراف البشري
  • تحسين سلسلة التوريد مع تحليل المخاطر

التحديات والحلول

التحدي: فجوة الثقة

المشكلة: 44% فقط من الأشخاص على مستوى العالم يشعرون بالارتياح تجاه الشركات التي تستخدم الذكاء الاصطناعي.

الحل: تطبيق أنظمة XAI التي توفر تفسيرات مفهومة لقرارات الذكاء الاصطناعي.

التحدي: فجوة المهارات

المشكلة: 46% من القادة يحددون ثغرات المهارات في القوى العاملة كعائق كبير أمام تبني الذكاء الاصطناعي.

الحل: برامج التدريب المنظمة والقيادة التي تشجع على تجريب الذكاء الاصطناعي.

مستقبل استشارات الذكاء الاصطناعي: نحو عام 2026 وما بعده

التطور التكنولوجي

تتضمن تقنيات الذكاء الاصطناعي الأكثر تقدماً في دورة الضبابية 2025 من جارتنر وكلاء الذكاء الاصطناعي والبيانات الجاهزة للذكاء الاصطناعي، مما يشير إلى تطور نحو أنظمة استشارية أكثر تطوراً واستقلالية.

عائد الاستثمار المتوقع

سيحقق موظفو الذكاء الاصطناعي الاستراتيجي عائد استثمار يبلغ 4 أضعاف العائد على الاستثمار بحلول عام 2026، مما يسلط الضوء على أهمية الاستثمار في نموذج المستشار الآن.

توصيات استراتيجية لرؤساء قسم التكنولوجيا وصناع القرار

التنفيذ الفوري (الربع الرابع من عام 2025)

  1. مراجعة قدرات الذكاء الاصطناعي الحالية في مؤسستك
  2. تحديد 2-3 حالات استخدام تجريبية عالية التأثير
  3. تطوير فرق عمل مشتركة بين الذكاء الاصطناعي والبشرية متعددة الوظائف

التخطيط متوسط الأجل (2026)

  1. توسيع نطاق أنظمة المستشارين الناجحة
  2. الاستثمار في التدريب المتقدم للموظفين
  3. شراكات استراتيجية مع موردي الذكاء الاصطناعي المتخصصين

الرؤية طويلة المدى (2027+)

  1. التحول التنظيمي الكامل
  2. قيادة الذكاء الاصطناعي في جميع الأقسام
  3. منظومة المستشارين المتكاملة على مستوى المؤسسة

الاستنتاجات: اللحظة الاستراتيجية

لا يمثل النموذج الاستشاري استراتيجية تطبيق التكنولوجيا فحسب، بل يمثل منظورًا أساسيًا حول نقاط القوة التكميلية للذكاء البشري والذكاء الاصطناعي.

ومن خلال تبني هذا النهج، تجد الشركات مساراً يجسد القوة التحليلية للذكاء الاصطناعي مع الحفاظ على الفهم السياقي والمنطق الأخلاقي وثقة أصحاب المصلحة التي تظل مجالات بشرية فريدة من نوعها.

ستكتسب الشركات التي تعطي الأولوية للذكاء الاصطناعي القابل للتفسير ميزة تنافسية من خلال دفع عجلة الابتكار مع الحفاظ على الشفافية والمساءلة.

المستقبل ينتمي إلى المؤسسات التي يمكنها تنظيم التعاون بين الإنسان والذكاء الاصطناعي بفعالية. إن نموذج المستشار ليس مجرد اتجاه، بل هو مخطط للنجاح في عصر الذكاء الاصطناعي للشركات.

الأسئلة الشائعة: أنظمة مستشاري الذكاء الاصطناعي

ما هي أنظمة دعم اتخاذ القرار بالذكاء الاصطناعي؟

أنظمة دعم اتخاذ القرار بالذكاء الاصطناعي (AI-DSS) هي أدوات تكنولوجية تستخدم الذكاء الاصطناعي لمساعدة البشر في اتخاذ قرارات أفضل من خلال توفير المعلومات ذات الصلة والتوصيات المستندة إلى البيانات.

ما الفرق بين مستشار الذكاء الاصطناعي والأتمتة الكاملة؟

على عكس الأتمتة الكاملة، تضمن الأنظمة الاستشارية احتفاظ البشر بالسيطرة النهائية على عمليات اتخاذ القرار، حيث تعمل أنظمة الذكاء الاصطناعي كمستشارين. هذا النهج ذو قيمة خاصة في سيناريوهات اتخاذ القرارات الاستراتيجية.

لماذا تفضل الشركات نموذج المستشار؟

يعالج النموذج الاستشاري مشكلة نقص الثقة في الذكاء الاصطناعي، حيث يشعر 44% فقط من الأشخاص بالارتياح تجاه الشركات التي تستخدم الذكاء الاصطناعي. من خلال الحفاظ على السيطرة البشرية، تكتسب المؤسسات قبولاً واعتماداً أكبر.

ما هي العناصر الرئيسية الثلاثة لتنفيذ أنظمة المستشارين الفعالة؟

  1. الواجهات التوضيحية التي تنقل المنطق وكذلك الاستنتاجات
  2. مقاييس الثقة المعايرة التي تمثل بدقة عدم اليقين
  3. حلقات التغذية الراجعة التي تدمج القرارات البشرية في التحسين المستمر للنظام

ما هي القطاعات الأكثر استفادة من أنظمة مستشاري الذكاء الاصطناعي؟

تشمل القطاعات الرئيسية ما يلي:

  • الخدمات المالية: تقييم المخاطر وإدارة المحافظ الاستثمارية
  • الرعاية الصحية: الدعم التشخيصي وأنظمة الإنذار المبكر
  • التصنيع: الصيانة التنبؤية ومراقبة الجودة
  • البيع بالتجزئة: التخصيص وتحسين سلسلة التوريد

كيف يمكن قياس العائد على الاستثمار لأنظمة مستشاري الذكاء الاصطناعي؟

يحقق المساهمون الاستراتيجيون في الذكاء الاصطناعي عائد استثمار مضاعف مرتين مقارنةً بالمستخدمين البسطاء، مع مقاييس تشمل

  • تقليل وقت اتخاذ القرار
  • تحسين دقة التنبؤات
  • زيادة إنتاجية الموظفين
  • الحد من الأخطاء المكلفة

ما هي التحديات الرئيسية في التنفيذ؟

تشمل التحديات الرئيسية ما يلي:

كيف نضمن الثقة في أنظمة مستشاري الذكاء الاصطناعي؟

لبناء الثقة:

ما هو مستقبل أنظمة مستشاري الذكاء الاصطناعي؟

تشير التوقعات إلى أنه بحلول عام 2026، سيشهد موظفو الذكاء الاصطناعي الاستراتيجي عائد استثمار يبلغ 4 أضعاف عائد الاستثمار. سيظل التطور نحو أنظمة الوكلاء الأكثر تطوراً محافظاً على نهج المستشار، مع استقلالية أكبر ولكن تحت إشراف بشري.

كيف أبدأ بأنظمة مستشار الذكاء الاصطناعي في شركتي؟

خطوات فورية:

  1. تقييم عمليات صنع القرار الحالية
  2. تحديد 1-2 حالات استخدام عالية التأثير
  3. تشكيل فرق عمل مشتركة بين الذكاء الاصطناعي والبشرية متعددة الوظائف
  4. تنفيذ مشاريع تجريبية قابلة للقياس
  5. التكرار بناءً على النتائج والملاحظات

المصادر الرئيسية: معهد ماكينزي العالمي، هارفارد بيزنس ريفيو، هارفارد بيزنس ريفيو، PubMed، Nature، IEEE، أبحاث جولدمان ساكس، قسم الأبحاث في كايزر بيرماننت

موارد لنمو الأعمال التجارية

9 نوفمبر 2025

تنظيم الذكاء الاصطناعي لتطبيقات المستهلك: كيفية الاستعداد للوائح الجديدة لعام 2025

يمثل عام 2025 نهاية حقبة "الغرب المتوحش" للذكاء الاصطناعي: قانون الذكاء الاصطناعي في الاتحاد الأوروبي الذي يبدأ العمل به اعتبارًا من أغسطس 2024 مع التزامات محو أمية الذكاء الاصطناعي اعتبارًا من 2 فبراير 2025، والحوكمة ومبادرة الحوكمة العالمية للذكاء الاصطناعي اعتبارًا من 2 أغسطس. كاليفورنيا رائدة من خلال SB 243 (وُلدت بعد انتحار سيويل سيتزر، طفل يبلغ من العمر 14 عامًا طور علاقة عاطفية مع روبوت الدردشة) يفرض حظرًا على أنظمة المكافأة القهرية، والكشف عن التفكير في الانتحار، والتذكير كل 3 ساعات "أنا لست إنسانًا"، والتدقيق العام المستقل، وعقوبات بقيمة 1000 دولار/مخالفة. يتطلب SB 420 تقييمات الأثر لـ "القرارات المؤتمتة عالية الخطورة" مع حقوق استئناف المراجعة البشرية. الإنفاذ الفعلي: تم الاستشهاد بنوم 2022 عن الروبوتات التي تم تمريرها كمدربين بشريين، تسوية 56 مليون دولار. الاتجاه الوطني: ألاباما وهاواي وإلينوي وماين وماساتشوستس تصنف الفشل في إخطار روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي على أنه انتهاك لقانون UDAP. نهج الأنظمة ذات المخاطر الحرجة ثلاثي المستويات (الرعاية الصحية/النقل/الطاقة) اعتماد ما قبل النشر، والإفصاح الشفاف الذي يواجه المستهلك، والتسجيل للأغراض العامة + اختبار الأمان. الترقيع التنظيمي بدون استباق فيدرالي: يجب على الشركات متعددة الولايات التنقل بين المتطلبات المتغيرة. الاتحاد الأوروبي اعتبارًا من أغسطس 2026: إبلاغ المستخدمين بالتفاعل مع الذكاء الاصطناعي ما لم يكن واضحًا، والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مصنفًا على أنه قابل للقراءة آليًا.
9 نوفمبر 2025

تنظيم ما لم يتم إنشاؤه: هل تخاطر أوروبا بعدم ملاءمة التكنولوجيا؟

**العنوان: القانون الأوروبي للذكاء الاصطناعي - مفارقة من ينظم ما لا يتطور** **ملخص: ** تجتذب أوروبا عُشر الاستثمارات العالمية في مجال الذكاء الاصطناعي ولكنها تدعي أنها تملي القواعد العالمية. هذا هو "تأثير بروكسل" - فرض لوائح تنظيمية على نطاق الكوكب من خلال قوة السوق دون دفع الابتكار. يدخل قانون الذكاء الاصطناعي حيز التنفيذ وفق جدول زمني متدرج حتى عام 2027، لكن شركات التكنولوجيا متعددة الجنسيات تستجيب باستراتيجيات تهرب مبتكرة: التذرع بالأسرار التجارية لتجنب الكشف عن بيانات التدريب، وإنتاج ملخصات متوافقة تقنياً ولكنها غير مفهومة، واستخدام التقييم الذاتي لخفض مستوى الأنظمة من "عالية المخاطر" إلى "قليلة المخاطر"، والتسوق من خلال اختيار الدول الأعضاء ذات الضوابط الأقل صرامة. مفارقة حقوق النشر خارج الحدود الإقليمية: يطالب الاتحاد الأوروبي بأن تمتثل OpenAI للقوانين الأوروبية حتى بالنسبة للتدريب خارج أوروبا - وهو مبدأ لم يسبق له مثيل في القانون الدولي. ظهور "النموذج المزدوج": إصدارات أوروبية محدودة مقابل إصدارات عالمية متقدمة من منتجات الذكاء الاصطناعي نفسها. الخطر الحقيقي: أن تصبح أوروبا "قلعة رقمية" معزولة عن الابتكار العالمي، مع وصول المواطنين الأوروبيين إلى تقنيات أقل شأناً. وقد رفضت محكمة العدل في قضية تسجيل الائتمان بالفعل دفاع "الأسرار التجارية"، ولكن لا يزال عدم اليقين التفسيري هائلاً - ماذا يعني بالضبط "ملخص مفصل بما فيه الكفاية"؟ لا أحد يعرف. السؤال الأخير الذي لم تتم الإجابة عليه: هل يخلق الاتحاد الأوروبي طريقًا ثالثًا أخلاقيًا بين الرأسمالية الأمريكية وسيطرة الدولة الصينية، أم أنه ببساطة يصدّر البيروقراطية إلى مجال لا ينافسه فيه أحد؟ في الوقت الحالي: رائد عالمي في تنظيم الذكاء الاصطناعي، وهامشي في تطويره. برنامج واسع.
9 نوفمبر 2025

القيم المتطرفة: حيث يلتقي علم البيانات مع قصص النجاح

لقد قلب علم البيانات النموذج رأساً على عقب: لم تعد القيم المتطرفة "أخطاء يجب التخلص منها" بل معلومات قيّمة يجب فهمها. يمكن أن يؤدي وجود قيمة متطرفة واحدة إلى تشويه نموذج الانحدار الخطي تمامًا - تغيير الميل من 2 إلى 10 - ولكن التخلص منها قد يعني فقدان أهم إشارة في مجموعة البيانات. يقدم التعلم الآلي أدوات متطورة: تقوم غابة العزل بعزل القيم المتطرفة من خلال بناء أشجار قرار عشوائية، ويقوم عامل التطرف المحلي بتحليل الكثافة المحلية، وتقوم أجهزة الترميز التلقائي بإعادة بناء البيانات العادية والإبلاغ عما لا تستطيع إعادة إنتاجه. هناك قيم متطرفة عالمية (درجة الحرارة -10 درجات مئوية في المناطق الاستوائية)، وقيم متطرفة سياقية (إنفاق 1000 يورو في حي فقير)، وقيم متطرفة جماعية (شبكة حركة المرور المتزامنة التي تشير إلى حدوث هجوم). بالتوازي مع غلادويل: "قاعدة الـ 10,000 ساعة" محل جدل - بول مكارتني ديكسيت "العديد من الفرق الموسيقية قامت بـ 10,000 ساعة في هامبورغ دون نجاح، النظرية ليست معصومة". النجاح الحسابي الآسيوي ليس وراثيًا بل ثقافيًا: النظام العددي الصيني أكثر بديهية، زراعة الأرز تتطلب تحسينًا مستمرًا مقابل التوسع الإقليمي للزراعة الغربية. تطبيقات حقيقية: تستعيد بنوك المملكة المتحدة 18% من الخسائر المحتملة من خلال الكشف عن الشذوذ في الوقت الحقيقي، ويكتشف التصنيع العيوب المجهرية التي قد يفوتها الفحص البشري، وتتحقق الرعاية الصحية من صحة بيانات التجارب السريرية بحساسية تزيد عن 85% من كشف الشذوذ. الدرس الأخير: مع انتقال علم البيانات من القضاء على القيم المتطرفة إلى فهمها، يجب أن ننظر إلى المهن غير التقليدية ليس على أنها حالات شاذة يجب تصحيحها ولكن كمسارات قيّمة يجب دراستها.