Newsletter

الآلات التي تتعلم (أيضًا) من أخطائنا تأثير الارتداد: نحن نعلم الذكاء الاصطناعي أخطاءنا فيردها إلينا... أضعافًا مضاعفة!

يرث الذكاء الاصطناعي تحيزاتنا - ومن ثم يضخمها. نرى النتائج المتحيزة ونعززها. دورة تغذية ذاتية. دراسة أجرتها كلية لندن الجامعية: زاد التحيز بنسبة 4.7% في التعرف على الوجه إلى 11.3% بعد التفاعلات بين الإنسان والذكاء الاصطناعي. في الموارد البشرية، كل دورة تزيد من التحيز بين الجنسين بنسبة 8-14%. الأخبار الجيدة؟ إن تقنية "المرآة الخوارزمية" - التي تُظهر للمديرين كيف ستبدو اختياراتهم إذا تم إجراؤها بواسطة الذكاء الاصطناعي - تقلل من التحيز بنسبة 41%.

بعض الأبحاث الحديثة سلطت الضوء على ظاهرة مثيرة للاهتمام: هناك علاقة "ثنائية" بين التحيزات الموجودة في نماذج الذكاء الاصطناعي وتلك الموجودة في الفكر البشري.

يخلق هذا التفاعل آلية تميل إلى تضخيم التشوهات المعرفية في كلا الاتجاهين.

يُظهر هذا البحث أن أنظمة الذكاء الاصطناعي لا ترث التحيزات البشرية من بيانات التدريب فحسب، بل يمكن أن تزيدها عند تطبيقها مما يؤثر بدوره على عمليات اتخاذ القرار لدى الأشخاص. وهذا يخلق دورة، إذا لم تتم إدارتها بشكل صحيح، فإنها تخاطر بزيادة التحيزات الأولية بشكل تدريجي.

تتضح هذه الظاهرة بشكل خاص في قطاعات مهمة مثل:

في هذه المجالات، قد تتضخم التحيزات الأولية الصغيرة من خلال التفاعلات المتكررة بين المشغلين البشريين والأنظمة الآلية، وتتحول تدريجياً إلى اختلافات كبيرة في النتائج.

أصول التحيز

في الفكر البشري

يستخدم العقل البشري بطبيعة الحال "اختصارات التفكير" التي يمكن أن تدخل أخطاءً منهجية في أحكامنا. نظرية "التفكير المزدوج"يميز بين

  • تفكير سريع وبديهي (عرضة للصور النمطية)
  • تفكير بطيء ومتأمل (قادر على تصحيح التحيزات)

على سبيل المثال، في المجال الطبي، يميل الأطباء في المجال الطبي إلى إعطاء وزن كبير للفرضيات الأولية، وإهمال الأدلة المخالفة. هذه الظاهرة، التي تسمى "التحيز التأكيدي"، تتكرر وتتضخم بواسطة أنظمة الذكاء الاصطناعي المدربة على بيانات التشخيص التاريخية.

في نماذج الذكاء الاصطناعي

تعمل نماذج التعلم الآلي على إدامة التحيزات بشكل رئيسي من خلال ثلاث قنوات:

  1. بيانات التدريب غير المتوازنة التي تعكس عدم المساواة التاريخية
  2. اختيار الخصائص التي تتضمن سمات محمية (مثل الجنس أو العرق)
  3. حلقات التغذية المرتدة الناتجة عن التفاعلات مع القرارات البشرية المشوهة بالفعل

واحد 2024 دراسة أجرتها كلية لندن الجامعية أظهرت أن أنظمة التعرف على الوجوه التي تم تدريبها على الأحكام العاطفية التي يصدرها الأشخاص ورثت ميلاً بنسبة 4.7% لتصنيف الوجوه على أنها "حزينة"، ثم تضخمت هذه النسبة إلى 11.3% في التفاعلات اللاحقة مع المستخدمين.

كيف يضخم كل منهما الآخر

يُظهر تحليل بيانات منصات التوظيف أن كل دورة تعاون بين البشر والخوارزميات تزيد من التحيز بين الجنسين بنسبة 8-14% من خلال آليات التغذية الراجعة التي يعزز بعضها بعضاً.

عندما يتلقى أخصائيو الموارد البشرية من الذكاء الاصطناعي قوائم المرشحين المتأثرين بالفعل بالتحيزات التاريخية، فإن تفاعلاتهم اللاحقة (مثل اختيار أسئلة المقابلات أو تقييمات الأداء) تعزز من التمثيلات المتحيزة للنموذج.

وجد تحليل تلوي أجري في عام 2025 لـ 47 دراسة أن ثلاث جولات من التعاون بين البشر والوكالة الدولية للطاقة الذرية زادت من التباينات الديموغرافية بمقدار 1.7 إلى 2.3 مرة في مجالات مثل الرعاية الصحية والإقراض والتعليم.

استراتيجيات قياس التحيز والتخفيف من حدته

القياس الكمي من خلال التعلم الآلي

يسمح إطار عمل قياس التحيزات الذي اقترحه دونغ وآخرون (2024) باكتشاف التحيزات دون الحاجة إلى تصنيفات "الحقيقة المطلقة" من خلال تحليل التباينات في أنماط اتخاذ القرار بين المجموعات المحمية.

التدخلات المعرفية

لقد قللت تقنية "المرآة الخوارزمية" التي طورها باحثو كلية لندن الجامعية من التحيز ضد المرأة في قرارات الترقية بنسبة 41% من خلال إظهار ما سيبدو عليه المديرون في اختياراتهم التاريخية إذا تم اتخاذها بواسطة نظام ذكاء اصطناعي.

وقد أثبتت بروتوكولات التدريب التي تتناوب بين المساعدة في اتخاذ القرار من قبل الشؤون الداخلية واتخاذ القرار المستقل أنها واعدة بشكل خاص، حيث قللت من آثار نقل التحيز من 17% إلى 6% في الدراسات التشخيصية السريرية.

الآثار المترتبة على المجتمع

تواجه المؤسسات التي تطبق أنظمة الذكاء الاصطناعي دون مراعاة التفاعلات مع التحيزات البشرية مخاطر قانونية وتشغيلية متزايدة.

يُظهر تحليل لقضايا التمييز في التوظيف أن عمليات التوظيف بمساعدة الذكاء الاصطناعي تزيد من معدلات نجاح المدعين بنسبة 28 في المائة مقارنة بالقضايا التقليدية التي يقودها البشر، حيث توفر آثار القرارات الخوارزمية دليلاً أوضح على التأثير المتباين.

نحو ذكاء اصطناعي يحترم الحرية والكفاءة

إن العلاقة بين التشوهات الخوارزمية والقيود المفروضة على حرية الاختيار تتطلب منا إعادة التفكير في التطور التكنولوجي من منظور المسؤولية الفردية وحماية كفاءة السوق. ومن الأهمية بمكان ضمان أن يصبح الذكاء الاصطناعي أداة لتوسيع الفرص وليس تقييدها.

تتضمن الاتجاهات الواعدة ما يلي:

  • حلول السوق التي تحفز تطوير خوارزميات غير متحيزة
  • شفافية أكبر في عمليات صنع القرار المؤتمتة
  • إلغاء الضوابط التنظيمية لصالح المنافسة بين الحلول التكنولوجية المختلفة

لا يمكننا ضمان استمرار الابتكار التكنولوجي كمحرك للازدهار والفرص لجميع الراغبين في اختبار مهاراتهم إلا من خلال التنظيم الذاتي المسؤول للصناعة، إلى جانب حرية الاختيار للمستخدمين.

موارد لنمو الأعمال التجارية

9 نوفمبر 2025

تنظيم الذكاء الاصطناعي لتطبيقات المستهلك: كيفية الاستعداد للوائح الجديدة لعام 2025

يمثل عام 2025 نهاية حقبة "الغرب المتوحش" للذكاء الاصطناعي: قانون الذكاء الاصطناعي في الاتحاد الأوروبي الذي يبدأ العمل به اعتبارًا من أغسطس 2024 مع التزامات محو أمية الذكاء الاصطناعي اعتبارًا من 2 فبراير 2025، والحوكمة ومبادرة الحوكمة العالمية للذكاء الاصطناعي اعتبارًا من 2 أغسطس. كاليفورنيا رائدة من خلال SB 243 (وُلدت بعد انتحار سيويل سيتزر، طفل يبلغ من العمر 14 عامًا طور علاقة عاطفية مع روبوت الدردشة) يفرض حظرًا على أنظمة المكافأة القهرية، والكشف عن التفكير في الانتحار، والتذكير كل 3 ساعات "أنا لست إنسانًا"، والتدقيق العام المستقل، وعقوبات بقيمة 1000 دولار/مخالفة. يتطلب SB 420 تقييمات الأثر لـ "القرارات المؤتمتة عالية الخطورة" مع حقوق استئناف المراجعة البشرية. الإنفاذ الفعلي: تم الاستشهاد بنوم 2022 عن الروبوتات التي تم تمريرها كمدربين بشريين، تسوية 56 مليون دولار. الاتجاه الوطني: ألاباما وهاواي وإلينوي وماين وماساتشوستس تصنف الفشل في إخطار روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي على أنه انتهاك لقانون UDAP. نهج الأنظمة ذات المخاطر الحرجة ثلاثي المستويات (الرعاية الصحية/النقل/الطاقة) اعتماد ما قبل النشر، والإفصاح الشفاف الذي يواجه المستهلك، والتسجيل للأغراض العامة + اختبار الأمان. الترقيع التنظيمي بدون استباق فيدرالي: يجب على الشركات متعددة الولايات التنقل بين المتطلبات المتغيرة. الاتحاد الأوروبي اعتبارًا من أغسطس 2026: إبلاغ المستخدمين بالتفاعل مع الذكاء الاصطناعي ما لم يكن واضحًا، والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مصنفًا على أنه قابل للقراءة آليًا.
9 نوفمبر 2025

تنظيم ما لم يتم إنشاؤه: هل تخاطر أوروبا بعدم ملاءمة التكنولوجيا؟

تجتذب أوروبا عُشر الاستثمارات العالمية في مجال الذكاء الاصطناعي ولكنها تدعي أنها تملي القواعد العالمية. هذا هو "تأثير بروكسل" - فرض القواعد على نطاق الكوكب من خلال قوة السوق دون دفع الابتكار. يدخل قانون الذكاء الاصطناعي حيز التنفيذ وفق جدول زمني متدرج حتى عام 2027، لكن شركات التكنولوجيا متعددة الجنسيات تستجيب باستراتيجيات تهرب مبتكرة: التذرع بالأسرار التجارية لتجنب الكشف عن بيانات التدريب، وإنتاج ملخصات متوافقة تقنياً ولكنها غير مفهومة، واستخدام التقييم الذاتي لخفض مستوى الأنظمة من "عالية المخاطر" إلى "قليلة المخاطر"، والتسوق من خلال اختيار الدول الأعضاء ذات الضوابط الأقل صرامة. مفارقة حقوق النشر خارج الحدود الإقليمية: يطالب الاتحاد الأوروبي بأن تمتثل OpenAI للقوانين الأوروبية حتى بالنسبة للتدريب خارج أوروبا - وهو مبدأ لم يسبق له مثيل في القانون الدولي. ظهور "النموذج المزدوج": إصدارات أوروبية محدودة مقابل إصدارات عالمية متقدمة من منتجات الذكاء الاصطناعي نفسها. الخطر الحقيقي: أن تصبح أوروبا "قلعة رقمية" معزولة عن الابتكار العالمي، مع وصول المواطنين الأوروبيين إلى تقنيات أقل شأناً. لقد رفضت محكمة العدل في قضية تسجيل الائتمان بالفعل دفاع "الأسرار التجارية"، ولكن لا يزال عدم اليقين التفسيري هائلاً - ماذا يعني بالضبط "ملخص مفصل بما فيه الكفاية"؟ لا أحد يعرف. السؤال الأخير الذي لم تتم الإجابة عليه: هل يخلق الاتحاد الأوروبي طريقًا ثالثًا أخلاقيًا بين الرأسمالية الأمريكية وسيطرة الدولة الصينية، أم أنه ببساطة يصدّر البيروقراطية إلى مجال لا ينافسه فيه أحد؟ في الوقت الحالي: رائد عالمي في تنظيم الذكاء الاصطناعي، وهامشي في تطويره. برنامج واسع.
9 نوفمبر 2025

القيم المتطرفة: حيث يلتقي علم البيانات مع قصص النجاح

لقد قلب علم البيانات النموذج رأساً على عقب: لم تعد القيم المتطرفة "أخطاء يجب التخلص منها" بل معلومات قيّمة يجب فهمها. يمكن أن يؤدي وجود قيمة متطرفة واحدة إلى تشويه نموذج الانحدار الخطي تمامًا - تغيير الميل من 2 إلى 10 - ولكن التخلص منها قد يعني فقدان أهم إشارة في مجموعة البيانات. يقدم التعلم الآلي أدوات متطورة: تقوم غابة العزل بعزل القيم المتطرفة من خلال بناء أشجار قرار عشوائية، ويقوم عامل التطرف المحلي بتحليل الكثافة المحلية، وتقوم أجهزة الترميز التلقائي بإعادة بناء البيانات العادية والإبلاغ عما لا تستطيع إعادة إنتاجه. هناك قيم متطرفة عالمية (درجة الحرارة -10 درجات مئوية في المناطق الاستوائية)، وقيم متطرفة سياقية (إنفاق 1000 يورو في حي فقير)، وقيم متطرفة جماعية (شبكة حركة المرور المتزامنة التي تشير إلى حدوث هجوم). بالتوازي مع غلادويل: "قاعدة الـ 10,000 ساعة" محل جدل - بول مكارتني ديكسيت "العديد من الفرق الموسيقية قامت بـ 10,000 ساعة في هامبورغ دون نجاح، النظرية ليست معصومة". النجاح الحسابي الآسيوي ليس وراثيًا بل ثقافيًا: النظام العددي الصيني أكثر بديهية، زراعة الأرز تتطلب تحسينًا مستمرًا مقابل التوسع الإقليمي للزراعة الغربية. تطبيقات حقيقية: تستعيد بنوك المملكة المتحدة 18% من الخسائر المحتملة من خلال الكشف عن الشذوذ في الوقت الحقيقي، ويكتشف التصنيع العيوب المجهرية التي قد يفوتها الفحص البشري، وتتحقق الرعاية الصحية من صحة بيانات التجارب السريرية بحساسية تزيد عن 85% من كشف الشذوذ. الدرس الأخير: مع انتقال علم البيانات من القضاء على القيم المتطرفة إلى فهمها، يجب أن ننظر إلى المهن غير التقليدية ليس على أنها حالات شاذة يجب تصحيحها ولكن كمسارات قيّمة يجب دراستها.