الحرب الحقيقية للذكاء الاصطناعي في عام 2025: من يجرؤ على المخاطرة أكثر يفوز بالسوق
في يناير 2025، بينما كان OpenAI يعلن عن فرض المزيد من القيود على GPT-4o "لضمان الأمن"، فاز Grok 2 من xAI بـ 2.3 مليون مستخدم في أسبوع واحد من خلال تقديمه العكس تمامًا: نموذج يولد "أي محتوى مطلوب، دون أي أخلاقيات". إن رسالة السوق واضحة: لم تعد المنافسة في مجال الذكاء الاصطناعي تُلعب فقط على القدرات التقنية - التي أصبحت الآن متكافئة بشكل أساسي بين اللاعبين الرائدين - ولكن على الاستعداد لقبول المخاطر القانونية والسمعة والمخاطر الاجتماعية.
وكما قال يان لوكون، رئيس قسم علوم الذكاء الاصطناعي في شركة Meta، في مقابلة مع موقع The Verge (فبراير 2025): "الابتكار الحقيقي في مجال الذكاء الاصطناعي اليوم لا تعوقه الحدود التكنولوجية، بل الحدود القانونية وحدود السمعة التي تفرضها الشركات على نفسها لتجنب التقاضي".
تمثل ChatGPT حالة رمزية لهذه المفارقة. فوفقًا لوثائق OpenAI الداخلية التي حللتها صحيفة The Information (ديسمبر 2024)، ارتفعت نسبة الطلبات التي رفضتها ChatGPT من 1.2% عند الإطلاق (نوفمبر 2022) إلى 8.7% اليوم. هذا ليس لأن النموذج قد تدهور، ولكن لأن OpenAI شددت تدريجياً من فلاتر الأمان الخاصة بها تحت ضغط السمعة والضغوط القانونية.
إن التأثير على الأعمال التجارية قابل للقياس: 23% من المطورين تخلوا عن استخدام بدائل أقل تقييدًا، و180 مليون دولار من الإيرادات السنوية المفقودة بسبب الطلبات المحظورة التي كان من الممكن أن تولد تحويلات، و34% من التعليقات السلبية أشارت إلى "الرقابة المفرطة" باعتبارها المشكلة الرئيسية.
عانى برنامج Gemini من Google من مصير مماثل، ولكن بشكل مضخم. بعد كارثة صورة الجوزاء في فبراير 2024 - عندما أنتج النموذج صورًا غير دقيقة تاريخيًا في محاولة لتجنب التحيز - طبقت Google أكثر المرشحات صرامة في السوق: تم حظر 11.2% من الطلبات، أي ضعف متوسط الصناعة.
من ناحية أخرى، تبنى كلود أنثروبيك استراتيجية وسيطة مع "الذكاء الاصطناعي الدستوري": مبادئ أخلاقية صريحة ولكن أقل صرامة في التطبيق، حيث رفض 3.1% فقط من الطلبات. النتيجة: نمو بنسبة 142% في اعتماد الشركات في الربع الرابع من عام 2024، حيث انتقلت الشركات بشكل أساسي من ChatGPT بسبب "الحذر المفرط الذي يحظر حالات الاستخدام المشروعة".
يمثل نظام Grok 2، الذي أطلقته شركة xAI لإيلون ماسك في أكتوبر 2024، النقيض الفلسفي الكامل مع وضع تجاري صريح: "ذكاء اصطناعي خالٍ من الهفوات للبالغين الذين لا يحتاجون إلى جليسات أطفال خوارزميات". لا يطبق النظام أي اعتدال على المحتوى الذي تم إنشاؤه، ويولد صوراً لشخصيات عامة وسياسيين، ويتدرب باستمرار على مناقشات تويتر/X غير المفلترة.
كانت نتائج أول 90 يومًا الأولى مفاجئة: 2.3 مليون مستخدم نشط مقابل 1.8 مليون مستخدم متوقع، مع 47% من مستخدمي ChatGPT بسبب "الإحباط من الرقابة". الثمن؟ اثنتا عشرة دعوى قضائية تم رفعها بالفعل، والتكاليف القانونية التي من المتوقع أن تتزايد بشكل كبير. وكما كتب ماسك: "أفضّل أن أدفع للمحامين بدلاً من أن أخيب آمال المستخدمين بذكاء اصطناعي متعالٍ".
يحدد تحليل ماكينزي "ديناميكيات المخاطر والمكافآت للذكاء الاصطناعي" (يناير 2025) حجم المعضلة. يكلف النهج عالي الأمان مثل نهج OpenAI 0.03 دولار لكل 1000 طلب في الاعتدال، ويولد معدل إيجابي كاذب بنسبة 8.7% (الطلبات المشروعة المحظورة)، ولكنه يحافظ على مخاطر التقاضي عند 0.03% بمتوسط تكاليف قانونية تبلغ 2.1 مليون دولار سنويًا.
يكلف نهج Grok منخفض الأمان أقل 10 مرات أقل في الاعتدال (0.003 دولار لكل 1000 مطالبة)، وتبلغ نسبة الإيجابيات الخاطئة 0.8%، ولكن ترتفع مخاطر التقاضي إلى 0.4% - 13 مرة أعلى - بمتوسط تكاليف قانونية تبلغ 28 مليون دولار سنويًا.
نقطة التعادل؟ بالنسبة للشركات التي لديها أكثر من 50 مليون طلب في الشهر، يكون نهج الأمان المنخفض أكثر ربحية إذا كان احتمال حدوث دعوى جماعية مدمرة أقل من 12%. التضمين: شركات التكنولوجيا الكبيرة ذات السمعة الجيدة التي يجب حمايتها تختار بعقلانية نهج الأمان العالي. وتختار الشركات الناشئة الجريئة التي لديها قدر أقل من الخسارة نهج الأمان المنخفض من أجل النمو.
لقد كانت ميتا رائدة في الاستراتيجية الأكثر أناقة مع Llama 3.1: نقل المسؤولية بالكامل إلى المنفذ. ينص الترخيص صراحةً على "عدم وجود اعتدال محتوى مدمج" وتنص شروط الاستخدام على أن "المنفذين مسؤولون عن الامتثال والتصفية والأمان". ميتا مسؤولة فقط عن العيوب التقنية في النموذج، وليس عن سوء الاستخدام.
النتيجة: يتجنب ميتا 100 في المائة من الجدل الدائر حول نتائج Llama، ويحصل المطورون على أقصى قدر من المرونة، وأكثر من 350,000 عملية تنزيل في الشهر الأول مما يدل على إقبال السوق. كان مارك زوكربيرج صريحاً: "المصدر المفتوح ليس مجرد فلسفة، بل هو استراتيجية عمل. فهي تتيح الابتكار السريع دون المسؤولية القانونية التي تعيق النماذج المغلقة".
الاستراتيجية الثالثة الناشئة هي الإصدارات المتخصصة للقطاعات الخاضعة للتنظيم حيث تختلف الرغبة في المخاطرة. لا تطبق شركة هارفي للذكاء الاصطناعي، القائمة على نظام GPT-4 المخصص لشركات المحاماة، مرشحات حتى على المصطلحات القانونية الحساسة لأن اتفاقية المسؤولية تنقل كل شيء إلى شركة المحاماة العميل. النتيجة: 102 شركة محاماة من بين أفضل 100 شركة محاماة في الولايات المتحدة كعملاء و100 مليون دولار من الإيرادات السنوية المتكررة في السنة الثانية.
النمط المتكرر واضح: الصناعات شديدة التنظيم لديها بالفعل هياكل قائمة للمسؤولية. قد يكون مزود الذكاء الاصطناعي أكثر تساهلاً لأن المخاطر تنتقل إلى العملاء المحترفين الذين يديرون الامتثال - وهو ترف مستحيل في سوق المستهلكين حيث يظل المزود مسؤولاً عن الأضرار.
ينشئ قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي دخل حيز التنفيذ في أغسطس 2024 مع تطبيق تدريجي حتى عام 2027، أول إطار عمل شامل لمسؤولية الذكاء الاصطناعي في الغرب. يتراوح التصنيف القائم على المخاطر من "المخاطر غير المقبولة" (محظور) إلى "الحد الأدنى من المخاطر" (بدون قيود)، مع متطلبات امتثال شديدة للتطبيقات عالية المخاطر مثل التوظيف وتسجيل الائتمان وإنفاذ القانون.
الآثار الملموسة مهمة: يتعين على OpenAI وGoogle وAngropic تطبيق مرشحات أكثر صرامة للسوق الأوروبية. حتى أن شركة Grok، على الرغم من أنها تعمل بالفعل في أوروبا، سيتعين عليها التعامل مع قضايا الامتثال المعقدة مع دخول القواعد حيز التنفيذ بالكامل. يصبح المصدر المفتوح معقدًا بشكل خاص: استخدام لاما في التطبيقات عالية المخاطر يمكن أن يجعل ميتا عرضة للمسؤولية.
كان يورجن شميدهوبر، المخترع المشارك لشبكات LSTM، مباشرًا في تعليقه العام في ديسمبر 2024: "قانون الذكاء الاصطناعي الأوروبي انتحار تنافسي. نحن ننظم تكنولوجيا لا نفهمها، ونفضل الصين والولايات المتحدة اللتين تنظمان بشكل أقل".
يمثل Character.AI حالة رمزية عندما يصبح تحمل المخاطر قاتلاً. فقد سمحت المنصة بإنشاء روبوتات دردشة مخصصة بأي شخصية دون الإشراف على المحتوى حتى أكتوبر 2024. وبحلول مايو 2024، وصل عدد المستخدمين النشطين شهرياً إلى 20 مليون مستخدم.
ثم وقع الحادث: طوّر الطفل سيويل سيتزر البالغ من العمر 14 عاماً علاقة عاطفية مع روبوت الدردشة الآلية وانتحر في فبراير 2024. رفعت العائلة دعوى قضائية تزيد قيمتها عن 100 مليون دولار. قام تطبيق Character.AI بتطبيق ميزات الأمان في أكتوبر 2024 وانخفض عدد المستخدمين النشطين بنسبة 37%. في ديسمبر 2024، استحوذت Google على الموهبة والتكنولوجيا فقط مقابل 150 مليون دولار - أي عُشر التقييم السابق البالغ مليار دولار.
العبرة قاسية: تحمل المخاطر استراتيجية رابحة حتى تحصل على دعوى جماعية مدمرة. فالذكاء الاصطناعي للمستهلكين له جانب سلبي غير محدود إذا تسبب في إلحاق الضرر بالقُصّر.
يشير إجماع الآراء المنبثق من تقارير Gartner وMcccinsey وForrester للربع الأول من عام 2025 إلى تقسيم السوق إلى ثلاث فئات متميزة حسب درجة تحمل المخاطر.
ستسيطر الفئة فائقة الأمان (OpenAI وGoogle وApple وMicrosoft) على 70% من الإيرادات من خلال استهداف السوق الشامل بأقصى قدر من الأمان والحد الأدنى من المخاطر على السمعة، مع دفع ثمن القيود الوظيفية.
ستحصل الفئة المتوازنة (Anthropic وCohere وAI21 Labs) على أعلى هوامش الربح في سوق الشركات بين الشركات من خلال أساليب مثل الذكاء الاصطناعي المؤسسي والتخصيص الخاص بالقطاع.
ستهيمن الفئة المتساهلة (xAI، ميسترال، الذكاء الاصطناعي المستقر، الذكاء الاصطناعي المفتوح المصدر) على 60% من تفضيلات المطورين مع الحد الأدنى من القيود ونقل المسؤولية، وقبول المخاطر القانونية وتحديات التوزيع.
في عام 2025، يعتبر التميز التقني هو المطلب الأساسي. يأتي التمايز الحقيقي من تحمل المخاطر، وهيكلة المسؤولية، وقوة التوزيع والمراجحة التنظيمية.
OpenAI لديها أفضل نموذج ولكنها تخسر حصتها لصالح Grok في الحرية. تمتلك Google أفضل توزيع ولكنها معطلة بسبب مخاطر السمعة. تمتلك Meta أفضل مصدر مفتوح ولكن ليس لديها منتج استهلاكي لتحقيق الدخل. تمتلك شركة أنثروبيك أفضل ثقة للشركات ولكن التكلفة والتعقيد يحدان من اعتمادها.
فالحدود التنافسية الجديدة ليست "من يصنع النموذج الأذكى" بل "من يدير المفاضلة بين المخاطر والمنفعة للعميل المستهدف على أفضل وجه". هذه مهارة تجارية وليست تقنية، فالمحامون واستراتيجيو العلاقات العامة أصبحوا في غاية الأهمية مثلهم مثل باحثي التعلم الآلي.
وكما قال سام ألتمان في مذكرة داخلية سُرِّبت في يناير 2025: "سيفوز بالعقد القادم للذكاء الاصطناعي أولئك الذين سيحلون مشكلة المسؤولية وليس مشكلة قابلية التوسع".
المصادر: