يشهد تنظيم الذكاء الاصطناعي تحولاً هائلاً في عام 2025، مع التركيز بشكل خاص على التطبيقات الموجهة للمستهلكين. يجب أن تستعد الشركات التي تستخدم روبوتات الدردشة الآلية وأنظمة اتخاذ القرار المؤتمتة والتقنيات التوليدية للذكاء الاصطناعي لمشهد تنظيمي يزداد تعقيداً وصرامة.
يمثل عام 2025 نهاية حقبة "الغرب المتوحش" لتطوير الذكاء الاصطناعي. دخل القانون الأوروبي للذكاء الاصطناعي حيز النفاذ في 1 أغسطس 2024، مع دخول الأحكام الرئيسية حيز التنفيذ خلال عام 2025: أصبحت التزامات محو أمية الذكاء الاصطناعي سارية المفعول في 2 فبراير 2025، بينما أصبحت قواعد الحوكمة والالتزامات الخاصة بنماذج الذكاء الاصطناعي العالمية سارية المفعول في 2 أغسطس 2025.
تتبع اللوائح الناشئة نهج المخاطر ثلاثي المستويات:
1. أنظمة الذكاء الاصطناعي للبنية التحتية الحرجة: تتطلب التطبيقات في مجالات الرعاية الصحية والنقل والطاقة والأسواق المالية الآن اعتماداً قبل النشر، ومراقبة مستمرة وإشرافاً بشرياً هادفاً.
2. الذكاء الاصطناعي الموجه للمستهلك: يجب أن توفر التطبيقات التي تتفاعل مباشرةً مع المستهلكين اتصالات واضحة بشأن استخدام الذكاء الاصطناعي، والحفاظ على مسارات تدقيق شاملة وتنفيذ بروتوكولات الكشف عن التحيز.
3. الذكاء الاصطناعي للأغراض العامة: تتطلب الأنظمة العامة أيضا التسجيل والاختبار الأمني الأساسي والكشف عن منهجيات التدريب.
نشأ مشروع قانون مجلس الشيوخ في ولاية كاليفورنيا رقم 243، الذي قدمه السيناتور ستيف باديلا، ردًا على الانتحار المأساوي الذي وقع في ولاية فلوريدا للفتى سيويل سيتزر، البالغ من العمر 14 عامًا، والذي انتحر بعد أن أقام علاقة عاطفية مع روبوت الدردشة.
متطلبات SB 243 الرئيسية:
ينص التشريع على إقامة دعوى قضائية خاصة مع تعويضات فعلية أو قانونية بقيمة 1,000 دولار أمريكي لكل انتهاك، أيهما أكبر.
يهدف SB 420 إلى توفير إطار تنظيمي لضمان احترام أنظمة الذكاء الاصطناعي لحقوق الإنسان وتعزيز العدالة والشفافية والمساءلة. ينظم التشريع تطوير وتنفيذ "أنظمة اتخاذ القرارات المؤتمتة عالية المخاطر" من خلال اشتراط إجراء تقييمات للأثر لتقييم الغرض واستخدام البيانات واحتمالية التحيز.
التزامات إخطار المستهلكين: وفقًا لقانون SB 420، يجب أن يعرف الأفراد الخاضعين لأنظمة اتخاذ القرار المؤتمتة متى يتم استخدام الأداة لاتخاذ قرارات بشأنهم، وأن يتلقوا تفاصيل حول النظام، وأن تتاح لهم الفرصة للطعن في تلك القرارات لمراجعتها بشريًا حيثما أمكن ذلك تقنيًا.
قدمت كل من ألاباما وهاواي وإلينوي وماين وماساتشوستس تشريعات في عام 2025 من شأنها أن تجعل عدم الإخطار عند تفاعل المستهلكين مع روبوتات الدردشة الآلية القائمة على الذكاء الاصطناعي انتهاكًا للأفعال أو الممارسات غير العادلة أو الخادعة (UDAP)، مما يعرض الشركات للتحقيق من قبل المدعي العام والإجراءات الخاصة المحتملة.
هاواي (HB 639): من شأنه أن يصنف استخدام روبوتات الدردشة الآلية القائمة على الذكاء الاصطناعي القادرة على تقليد السلوك البشري دون إبلاغ المستهلكين بذلك بطريقة واضحة ومرئية على أنه غير عادل أو خادع. تُستثنى الشركات الصغيرة التي تستخدم روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي دون علمها ما لم يتم تقديم إخطارات واضحة.
إلينوي (HB 3021): من شأنه تعديل قانون الاحتيال على المستهلكين والممارسات التجارية الخادعة ليطلب إخطارًا واضحًا عندما يتواصل المستهلكون مع روبوتات الدردشة أو وكلاء الذكاء الاصطناعي أو الصور الرمزية التي قد تدفع المستهلكين إلى الاعتقاد بأنهم يتواصلون مع بشر.
سنّت ولاية كاليفورنيا أول قانون للإفصاح عن الروبوتات (Cal. Bus. & Prof. Code § 17940-17942) الذي يتطلب الإفصاح عندما تُستخدم الروبوتات "لخداع" شخص ما "عن علم" في المعاملات التجارية أو التأثير الانتخابي.
يتطلب قانون سياسة الذكاء الاصطناعي في ولاية يوتا، الذي يسري اعتبارًا من 1 مايو 2024، من الروبوتات التي تواجه المستهلكين أن تكشف "عند الطلب" أن المستهلكين يتفاعلون مع "ذكاء اصطناعي مولد وليس إنسانًا".
في عام 2022، رفع عملاء تطبيق Noom لإنقاص الوزن دعوى قضائية ضد الشركة بزعم انتهاكها قانون الإفصاح عن الروبوتات في كاليفورنيا، مدعين أن Noom قد ادعت زوراً أن الأعضاء سيتلقون خططاً مخصصة من مدربين بشريين في حين أنهم في الواقع روبوتات آلية. توصل الطرفان إلى تسوية بقيمة 56 مليون دولار.
أصدرت لجنة التجارة الفيدرالية إرشادات تتطلب من الشركات "الشفافية بشأن طبيعة الأداة التي يتفاعل معها المستخدمون" وحذرت من استخدام الأدوات الآلية لخداع الناس.
وفقًا لقانون الاتحاد الأوروبي للذكاء الاصطناعي، اعتبارًا من أغسطس 2026، يجب على مقدمي خدمات الذكاء الاصطناعي إبلاغ المستخدمين عند تفاعلهم مع الذكاء الاصطناعي ما لم يكن ذلك واضحًا. يجب تسمية المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي بشكل واضح بطريقة يمكن قراءتها آلياً، باستثناء التعديلات الطفيفة.
حتى الشركات التي لا تعتبر نفسها شركات ذكاء اصطناعي يمكنها استخدام روبوتات الدردشة الآلية الخاضعة للتنظيم. تنتشر روبوتات الدردشة الآلية في خدمة العملاء والرعاية الصحية والخدمات المصرفية والتعليم والتسويق والترفيه.
يجب على الشركات التنقل في مشهد تنظيمي مجزأ بمتطلبات مختلفة عبر الولايات القضائية. ويعني عدم وجود شفاء اتحادي مسبق أن الشركات يجب أن تمتثل لمتطلبات مختلفة في ولايات مختلفة.
ينظر المشرعون في الولايات في مجموعة متنوعة من تشريعات الذكاء الاصطناعي، حيث سيتم طرح مئات اللوائح التنظيمية بحلول عام 2025، بما في ذلك قوانين شاملة لحماية المستهلك، ولوائح خاصة بقطاعات محددة، ولوائح خاصة بروبوتات الدردشة.
ستحصل المؤسسات التي تعطي الأولوية لحوكمة الذكاء الاصطناعي على ميزة تنافسية، حيث إن الامتثال الاستباقي هو المفتاح لإطلاق الإمكانات الكاملة للذكاء الاصطناعي مع تجنب المخاطر القانونية.
يتطور المشهد التنظيمي لتطبيقات الذكاء الاصطناعي الموجهة للمستهلكين بشكل سريع، حيث تقود كاليفورنيا الطريق من خلال تشريع شامل يتناول كلاً من أمن روبوتات الدردشة (SB 243) وشفافية قرارات الذكاء الاصطناعي الأوسع نطاقاً (SB 420).
يخلق هذا المزيج من اللوائح التنظيمية على مستوى الولاية تحديات الامتثال للشركات العاملة في ولايات قضائية متعددة، في حين أن عدم وجود استثناء فيدرالي يعني أنه يجب على الشركات التعامل مع المتطلبات المتغيرة.
إن التركيز على الشفافية وحقوق الرقابة البشرية وحماية الفئات السكانية الضعيفة يشير إلى تحول نحو حوكمة أكثر إلزامية للذكاء الاصطناعي تعطي الأولوية لحماية المستهلك على المرونة في الابتكار.
تطبيقات الذكاء الاصطناعي الموجهة للمستهلكين هي أنظمة ذكاء اصطناعي تتفاعل مباشرةً مع المستهلكين، بما في ذلك روبوتات الدردشة لخدمة العملاء، والمساعدين الافتراضيين، وأنظمة التوصيات، والذكاء الاصطناعي التخاطبي المستخدم في قطاعات مثل التجارة الإلكترونية والرعاية الصحية والخدمات المالية والترفيه.
تشمل المتطلبات الرئيسية ما يلي:
لا، ينطبق SB 243 على وجه التحديد على "روبوتات الدردشة المصاحبة"، وهي أنظمة الذكاء الاصطناعي ذات واجهة اللغة الطبيعية التي توفر استجابات تكيفية شبيهة بالبشر وقادرة على تلبية الاحتياجات الاجتماعية للمستخدمين. لا تندرج جميع روبوتات الدردشة المصاحبة لخدمة العملاء بالضرورة تحت هذا التعريف.
تختلف العقوبات حسب الولاية ولكنها قد تشمل:
يجب على الشركات:
نعم، يسري قانون الذكاء الاصطناعي على أي نظام ذكاء اصطناعي يخدم المستخدمين في الاتحاد الأوروبي، بغض النظر عن مكان وجود الشركة. اعتبارًا من أغسطس 2026، سيتعين على مقدمي الخدمة إبلاغ المستخدمين عند تفاعلهم مع الذكاء الاصطناعي ما لم يكن ذلك واضحًا.
يجب على الشركات الامتثال لقوانين كل ولاية تعمل فيها. في الوقت الحالي، لا يوجد حاليًا أي استباق فيدرالي، لذلك من الضروري وضع استراتيجيات امتثال متعددة الولايات تلبي المتطلبات الأكثر صرامة.
توفر بعض اللوائح إعفاءات أو متطلبات مخفضة للشركات الصغيرة. على سبيل المثال، يعفي قانون هاواي HB 639 الشركات الصغيرة التي تستخدم روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي دون علمها، شريطة أن تمتثل بعد تلقي الإخطار المناسب.
المصادر والروابط المرجعية: