في سبتمبر 2025، كشفت OpenAI عن معلومة هزت مجتمع التكنولوجيا العالمي: ChatGPT تراقب بنشاط محادثات المستخدمين وتبلغ السلطات عن المحتوى الذي يحتمل أن يكون إجراميًا.
كشفت هذه الأخبار، التي ظهرت بشكل عارض في منشور على مدونة الشركة، أنه عندما تكتشف الأنظمة الآلية مستخدمين "يخططون لإلحاق الضرر بالآخرين"، يتم توجيه المحادثات إلى قنوات متخصصة حيث يقوم فريق صغير مدرب على سياسات الاستخدام بفحصها. إذا قرر المراجعون البشريون أن هناك "تهديدًا وشيكًا بإلحاق ضرر جسدي جسيم بالآخرين"، فيمكن إحالة القضية إلى سلطات إنفاذ القانون¹.

ChatGPT يدعوك بلطف لمشاركة أفكارك الأكثر خصوصية. لا تقلق، كل شيء سري... تقريبًا.
المصادر:
عندما نتحدث مع طبيب نفسي أو محام أو طبيب أو كاهن، فإن كلماتنا محمية بآلية قانونية راسخة: السرية المهنية. هذا المبدأ، المتجذر في قرون من التقاليد القانونية، ينص على أن بعض المحادثات غير قابلة للانتهاك، حتى في مواجهة التحقيقات الجنائية.
خصائص السرية المهنية التقليدية:
خلافاً للانطباع السائد، فإن السرية المهنية ليست مطلقة. هناك استثناءات محددة تختلف باختلاف الفئة المهنية:
بالنسبة للمحامين (المادة 28 من مدونة قواعد السلوك المهني للمحامين): يُسمح بالإفصاح عندما يكون ذلك ضروريًا من أجل:
مثال حرج: إذا أعلن عميل للمحامي أنه ينوي ارتكاب جريمة قتل، فإنه بين حماية حق الدفاع وحماية الحياة، يجب أن تسود الأخيرة، ويكون المحامي غير ملزم بالسرية².
بالنسبة للأخصائيين النفسيين (المادة 13 من مدونة قواعد السلوك المهني): يمكن انتهاك السرية في الحالات التالية:
تمييز مهم: يتمتع الطبيب النفسي الخاص بسلطة تقديرية أكبر مقارنة بنظيره العام، الذي يتحمل، بصفته موظفًا عامًا، التزامات أكثر صرامة فيما يتعلق بالإبلاغ³.
المصادر:
يعمل ChatGPT في منطقة رمادية مختلفة تمامًا:
عدم وجود امتياز قانوني: المحادثات مع الذكاء الاصطناعي لا تتمتع بأي حماية قانونية. كما اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI: "إذا تحدثت مع معالج أو محامٍ أو طبيب عن هذه المشاكل، فهناك امتياز قانوني لذلك. هناك سرية بين الطبيب والمريض، وهناك سرية قانونية، وأي شيء آخر. ولم نحل هذه المشكلة بعد عندما تتحدث مع ChatGPT"².
عملية آلية: على عكس المحترف البشري الذي يقيّم كل حالة على حدة، يستخدم ChatGPT خوارزميات لتحديد المحتوى "المشكوك فيه"، مما يزيل الحكم البشري المؤهل من مرحلة الفرز الأولية.
المصادر:
هذا الوضع يخلق مفارقة مقلقة. الملايين من الناس يستخدمون ChatGPT كصديق رقمي موثوق، ويشاركونه أفكارهم الحميمة وشكوكهم ومخاوفهم وحتى تخيلاتهم الإجرامية التي لن يشاركوا بها أبدًا مع أي إنسان. كما يقول سام ألتمان: "الناس يتحدثون عن أكثر الأمور خصوصية في حياتهم مع ChatGPT. الناس يستخدمونه - خاصة الشباب - كمعالج نفسي ومدرب حياة"⁴.
خطر الرقابة الذاتية الإجرامية: إن إدراك أن المحادثات يمكن مراقبتها قد يؤدي بشكل متناقض إلى:
أحد الجوانب الحاسمة التي أبرزها النقاد يتعلق بكفاءة من يتخذون القرارات النهائية.
المهنيون البشريون لديهم:
يعمل نظام ChatGPT مع:
مثال إشكالي: كيف يميز الخوارزمية بين:
المصادر:
المصادر:
اعتراف OpenAI يتعارض بشكل صارخ مع مواقفها السابقة. فقد قاومت الشركة بشدة طلبات الحصول على بيانات المستخدمين في الدعاوى القضائية، متذرعة بحماية الخصوصية. في القضية المرفوعة ضد صحيفة نيويورك تايمز، جادلت OpenAI بشدة ضد الكشف عن سجلات الدردشة لحماية خصوصية المستخدمين⁴.
المفارقة في الموقف: تدافع OpenAI عن خصوصية المستخدمين في المحاكم بينما تعترف في الوقت نفسه بمراقبة البيانات ومشاركتها مع السلطات الخارجية.
وقد ازدادت الحالة تعقيدًا مع صدور أمر من المحكمة يطالب OpenAI بالاحتفاظ بجميع سجلات ChatGPT إلى أجل غير مسمى، بما في ذلك المحادثات الخاصة وبيانات واجهة برمجة التطبيقات. وهذا يعني أن المحادثات التي كان المستخدمون يعتقدون أنها مؤقتة أصبحت الآن مخزنة بشكل دائم⁵.
المصادر:
كما اقترح سام ألتمان، قد يكون من الضروري تطوير مفهوم "امتياز الذكاء الاصطناعي" - وهو حماية قانونية مماثلة لتلك التي يتمتع بها المهنيون التقليديون. ومع ذلك، فإن هذا يثير أسئلة معقدة:
الخيارات التنظيمية الممكنة:
IA "مقسمة":
النهج "الثلاثي":
دروس من قطاعات أخرى:
المصادر:
تشكل قضية OpenAI سابقة مهمة لقطاع الذكاء الاصطناعي برمته:
بالنسبة للشركات التي تطور الذكاء الاصطناعي التخاطبي:
بالنسبة للشركات التي تستخدم الذكاء الاصطناعي:
المعضلة الرئيسية: كيف يمكن تحقيق التوازن بين منع الجرائم الفعلية والحق في الخصوصية والسرية الرقمية؟
المسألة ليست مجرد مسألة فنية بل تتعلق بمبادئ أساسية:
يعد إعلان OpenAI نقطة تحول في تطور الذكاء الاصطناعي، ولكن السؤال ليس ما إذا كان الإعلان صحيحًا أم خاطئًا بشكل مطلق: بل كيف يمكن جعله فعالًا وعادلًا ومحترمًا للحقوق.
الحاجة حقيقية: التهديدات الملموسة بالعنف والتخطيط لشن هجمات أو جرائم خطيرة أخرى تتطلب التدخل. المشكلة ليست في الإبلاغ، بل في كيفية القيام بذلك بطريقة مسؤولة.
الاختلافات الأساسية التي يجب حلها:
التدريب والكفاءة:
الشفافية والرقابة:
التناسب:
بالنسبة للشركات العاملة في هذا القطاع، يتمثل التحدي في تطوير أنظمة تحمي المجتمع بشكل فعال دون أن تصبح أدوات مراقبة عشوائية. ثقة المستخدمين أمر أساسي، ولكنها يجب أن تتوافق مع المسؤولية الاجتماعية.
بالنسبة للمستخدمين، الدرس مزدوج:
يتطلب مستقبل الذكاء الاصطناعي التخاطبي إطار عمل جديدًا يقوم بما يلي:
السؤال الصحيح ليس ما إذا كان ينبغي على الآلات الإبلاغ عن الجرائم، بل كيف يمكننا ضمان قيامها بذلك (على الأقل) بنفس الحكمة والتدريب والمسؤولية التي يتحلى بها المهنيون البشر.
الهدف ليس العودة إلى الذكاء الاصطناعي "الأعمى" عن المخاطر الحقيقية، بل بناء أنظمة تجمع بين الكفاءة التكنولوجية والأخلاق والكفاءة البشرية. بهذه الطريقة فقط يمكننا الحصول على أفضل ما في العالمين: الأمن وحماية الحقوق الفردية.