يمثل تدريب نماذج الذكاء الاصطناعي أحد أكثر التحديات تعقيداً في التطور التكنولوجي المعاصر. فهو أكثر بكثير من مجرد مسألة خوارزمية بسيطة، إذ يتطلب التدريب الفعال للنموذج نهجًا منهجيًا ومتعدد التخصصات يدمج البيانات وعلوم البيانات والمعرفة بالمجال وهندسة البرمجيات. وكما يشير جيمس لوك في نصه الأساسي"ما وراء الخوارزميات: تقديم الذكاء الاصطناعي للأعمال"، فإن نجاح تطبيق الذكاء الاصطناعي يعتمد على إدارة البيانات والتصميم المنهجي أكثر بكثير من اعتماده على الخوارزميات نفسها. يتغير المشهد بسرعة، مع ابتكارات مثل نموذج DeepSeek-R1 الذي يعيد تعريف التكلفة وإمكانية الوصول.
على عكس ما يُعتقد في كثير من الأحيان، فإن كمية البيانات ليست دائمًا العامل المحدد للنجاح. فجودة البيانات وطابعها التمثيلي أكثر أهمية بكثير. وفي هذا السياق، من الأهمية بمكان دمج المصادر المختلفة:
ويؤدي هذا التكامل إلى إنشاء قاعدة تدريب شاملة تجسد سيناريوهات العالم الحقيقي مع الحفاظ على المعايير الأخلاقية والخصوصية.
تمثل عملية "معالجة البيانات" ما يصل إلى 80% من الجهد المطلوب في مشاريع الذكاء الاصطناعي. وتتضمن هذه المرحلة:
يجب أن يسترشد اختيار بنية النموذج بالطبيعة المحددة للمشكلة المراد حلها، وليس بالميول أو التفضيلات الشخصية. فالأنواع المختلفة من المشاكل تتطلب نهوجاً مختلفة:
يتطلب التحسين المعماري إجراء تقييم منهجي بين التكوينات المختلفة، مع التركيز على الموازنة بين الأداء والمتطلبات الحاسوبية، وهو جانب أصبح أكثر أهمية مع ظهور نماذج مثل DeepSeek-R1 التي توفر قدرات تفكير متقدمة بتكاليف أقل بكثير.
برزت عملية التقطير كأداة قوية بشكل خاص في منظومة الذكاء الاصطناعي الحالية. هذه العملية تجعل من الممكن إنشاء نماذج أصغر حجماً وأكثر تحديداً ترث القدرات المنطقية للنماذج الأكبر والأكثر تعقيداً، مثل DeepSeek-R1.
كما هو موضح في حالة DeepSeek، قامتالشركة بتقطير قدرات الاستدلال الخاصة بها على عدة نماذج أصغر، بما في ذلك النماذج مفتوحة المصدر من عائلة Llama من Meta وعائلة Qwen من Alibaba. يمكن بعد ذلك تحسين هذه النماذج الأصغر حجماً لمهام محددة، مما يسرع من الاتجاه نحو النماذج السريعة والمتخصصة.
يقول سام ويتفين، مطور التعلم الآلي: "لقد بدأنا في الدخول إلى عالم يستخدم فيه الأشخاص نماذج متعددة. فهم لا يستخدمون نموذجًا واحدًا فقط طوال الوقت." ويشمل ذلك النماذج المغلقة منخفضة التكلفة مثل Gemini Flash و GPT-4o Mini، والتي "تعمل بشكل جيد للغاية في 80 في المائة من حالات الاستخدام".
بدلاً من تدريب نماذج منفصلة للمهارات ذات الصلة، يسمح التعلم متعدد المهام للنماذج بمشاركة المعرفة بين الوظائف المختلفة:
بالنسبة للشركات التي تعمل في مجالات محددة للغاية، حيث لا تتوفر المعلومات على نطاق واسع على شبكة الإنترنت أو في الكتب المستخدمة عادةً لتدريب النماذج اللغوية، فإن الضبط الدقيق تحت الإشراف (SFT) يعد خيارًا فعالاً.
أظهر DeepSeek أنه من الممكن تحقيق نتائج جيدة باستخدام "الآلاف" من مجموعات بيانات الأسئلة والأجوبة. على سبيل المثال، أظهر مهندس شركة IBM كريس هاي كيف قام بإعداد نموذج صغير باستخدام مجموعات البيانات الخاصة بالرياضيات الخاصة به وحصل على إجابات سريعة للغاية تجاوزت أداء نموذج o1 الخاص بـ OpenAI على نفس المهام.
الشركات التي ترغب في تدريب نموذج مع مزيد من المواءمة مع تفضيلات محددة - على سبيل المثال، جعل روبوت الدردشة الآلي الخاص بدعم العملاء متعاطفًا وموجزًا - ستحتاج إلى تطبيق تقنيات التعلم المعزز (RL). هذا النهج مفيد بشكل خاص إذا أرادت الشركة أن يقوم روبوت الدردشة الآلي الخاص بها بتكييف أسلوبه وتوصياته بناءً على ملاحظات المستخدمين.
بالنسبة لمعظم الشركات، يعتبر التوليد المعزز للاسترجاع (RAG) أبسط الطرق وأكثرها أمانًا. إنها عملية مباشرة نسبيًا تسمح للمؤسسات بتثبيت نماذجها بالبيانات الخاصة الموجودة في قواعد بياناتها، مما يضمن دقة المخرجات وملاءمتها للمجال.
يساعد هذا النهج أيضاً على مواجهة بعض مشاكل الهلوسة المرتبطة بنماذج مثل DeepSeek، والتي تهلوس حالياً في 14% من الحالات مقارنة بـ 8% لنموذج o3 الخاص بـ OpenAI، وفقاً لدراسة أجرتها شركة Vectara.
يكمن السحر في الجمع بين تقطير النماذج و RAG بالنسبة لمعظم الشركات، حيث أصبح من السهل جدًا تطبيقه، حتى بالنسبة لأولئك الذين لديهم مهارات محدودة في علم البيانات أو البرمجة.
لا يقاس الذكاء الاصطناعي الفعال من حيث الدقة الأولية فحسب، بل يتطلب إطار تقييم شامل يأخذ في الاعتبار:
يتمثل التأثير الأكثر فورية لإصدار DeepSeek في انخفاض أسعاره بشكل كبير. فقد توقعت صناعة التكنولوجيا أن تنخفض التكاليف بمرور الوقت، لكن القليلين توقعوا مدى سرعة حدوث ذلك. فقد أظهر DeepSeek أن النماذج القوية والمفتوحة يمكن أن تكون رخيصة وفعالة في الوقت نفسه، مما يخلق فرصاً للتجريب على نطاق واسع والتنفيذ الفعال من حيث التكلفة.
وقد أكد عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا، على هذه النقطة، مشيراً إلى أن نقطة التحول الحقيقية ليست فقط تكلفة التدريب، بل تكلفة الاستدلال، والتي تبلغ بالنسبة لـ DeepSeek حوالي 1/30 من تكلفة نماذج OpenAI o1 أو o3 لكل رمز. وقال عوض الله: "إن الهوامش التي تمكنت OpenAI وAthropic وGoogle Gemini من الحصول عليها يجب أن تنخفض الآن بنسبة 90 في المائة على الأقل لأنها لا تستطيع أن تظل قادرة على المنافسة بهذه الأسعار المرتفعة".
ليس هذا فحسب، بل ستستمر هذه التكاليف في الانخفاض. فقد ذكر داريو أمودي الرئيس التنفيذي لشركة أنثروبيك مؤخرًا أن تكلفة تطوير النماذج تستمر في الانخفاض بمعدل أربعة أضعاف كل عام تقريبًا. ونتيجة لذلك، سيستمر أيضًا انخفاض المعدل الذي يتقاضاه موردو نماذج LLM مقابل استخدامها.
"قال أشوك سريفاستافا، الرئيس التنفيذي للعمليات في شركة Intuit، وهي شركة دفعت بقوة بالذكاء الاصطناعي في عروضها من برامج الضرائب والمحاسبة مثل TurboTax وQuickbooks: "أتوقع تمامًا أن تصل التكلفة إلى الصفر. "... وسيصل زمن الاستجابة إلى الصفر. ستصبح ببساطة قدرات أساسية يمكننا استخدامها."
إن "DeepSeek" و"Deep Research" من OpenAI أكثر من مجرد أدوات جديدة في ترسانة الذكاء الاصطناعي، بل هي علامات على تغيير عميق ستنشر فيه الشركات أعداداً كبيرة من النماذج المصممة لهذا الغرض، والتي تتسم بالفعالية من حيث التكلفة والكفاءة العالية والمتجذرة في بيانات الشركة ونهجها.
بالنسبة للشركات، الرسالة واضحة: الأدوات اللازمة لبناء تطبيقات ذكاء اصطناعي قوية خاصة بمجال معين في متناول اليد. أنت تخاطر بالتخلف عن الركب إذا لم تستفد من هذه الأدوات. ولكن النجاح الحقيقي سيأتي من كيفية تنظيم البيانات، واستغلال تقنيات مثل RAG والتقطير، والابتكار لما بعد مرحلة ما قبل التدريب.
وكما قال باكر من AmEx: الشركات التي تدير بياناتها بشكل صحيح هي التي ستقود الموجة التالية من الابتكار في مجال الذكاء الاصطناعي.