مع صعود تقنيات الذكاء الاصطناعي التوليدي (Generative AI)، لم يعد السؤال يقتصر على حدود القدرات التقنية، بل امتد إلى كيفية تفاعل الإنسان مع هذه النماذج. هنا يظهر مصطلح “السلوك الانفعالي” – وهو ليس مصطلحاً قانونياً ثابتاً، بل توصيف واسع لتصرفات المستخدم حين تسيطر عليه العاطفة في تعامله مع الذكاء الاصطناعي.
هذا السلوك قد يتراوح بين العدائية الصريحة (كالتنمر أو التهديد)، والتلاعب النفسي (محاولات كسر الحماية)، وصولاً إلى حالات الانفعال العاطفي الحاد (كالبوح بالضيق النفسي أو الأفكار الانتحارية). ما تكشفه السياسات الحالية هو أن الهدف ليس حماية الآلة من المشاعر، بل حماية الإنسان والمجتمع من الآثار المترتبة على هذه الانفعالات حين تنقلب إلى محتوى ضار أو سلوك خطر.
1. سياسات OpenAI: المبادئ الواسعة والمسؤولية الفردية
- استخدام النماذج لإيذاء النفس أو الآخرين.
- توليد محتوى كراهية أو عنف أو تمييز.
- التلاعب والخداع وانتحال الشخصية.
الأهم أن الشركة تُلقي المسؤولية النهائية على المستخدم لتقييم المخرجات وضمان ملاءمتها. هنا نلمس فلسفة تعتبر الذكاء الاصطناعي أداةً محايدة، بينما يظل القرار الإنساني هو الحكم الأخير.
2. سياسات جوجل (Gemini): شبكة تنظيمية متعددة الطبقات
جوجل تعتمد نهجاً أكثر تفصيلاً، حيث تصدر سياسة خاصة بـ “الاستخدام المحظور للذكاء الاصطناعي التوليدي”، تتكامل مع سياسات المحتوى الأوسع عبر منتجاتها:
- تمنع صراحةً أي شكل من المضايقة أو التنمر أو التحريض على العنف.
- تجرّم المعلومات المضللة وانتحال الهوية.
- تضع مسؤولية إضافية على المطورين لضمان منع أي محتوى مسيء.
هذا يجعل النظام البيئي كله – من المستخدم العادي إلى مطور التطبيقات – مسؤولاً عن ضبط السلوك الانفعالي.
3. سياسات Anthropic (Claude): السلامة أولاً
تختلف Anthropic بتركيزها المباشر على مفهوم السلامة:
- تحظر المحتوى المسيء أو البغيض أو العنيف بشكل صريح.
- تجرّم انتحال الشخصية بغرض التضليل.
- تتجه إلى تنظيم النتائج الضارة المحددة بدلاً من الحظر الواسع.
تحديثات 2025 أبرزت تحوّلاً جديداً: لم تعد تمنع التعبير السياسي الانفعالي بحد ذاته، بل تمنع استخدامه للإضرار بالعمليات الديمقراطية.
- الفلاتر التقنية والمصنفات: تقوم بصدّ المحتوى الضار في الزمن الفعلي.
- الإشراف البشري: يتدخل لمعالجة الحالات الرمادية حيث تفشل الأنظمة الآلية.
- العقوبات: تشمل تعليق الحسابات أو إغلاقها نهائياً عند الانتهاك.
وهنا نكتشف أن الدافع الأعمق ليس الأخلاقي فقط، بل التجاري أيضاً: النماذج تعكس جودة بياناتها. فإذا تسربت الانفعالات العدائية والمحتوى السام إلى بيانات التدريب، فإن الذكاء الاصطناعي المستقبلي سيصبح غير صالح أو خطر تجارياً.
لا تتحرك هذه الشركات في فراغ؛ بل تستند إلى أطر دولية مثل:
- مبادئ منظمة التعاون الاقتصادي والتنمية (OECD) التي تشدد على الإنصاف و”عدم الإضرار”.
- توصيات اليونسكو التي تؤكد على الكرامة الإنسانية وحقوق الإنسان.
- التزامات شركات مثل مايكروسوفت وآي بي إم التي ترفع قيم الشفافية، المساءلة، والشمولية.
رغم صرامة هذه السياسات، تظهر ثلاث فجوات أساسية:
- غياب رفاهية المستخدم النفسية: لا قواعد لحماية المستعمل من آثار نفسية سلبية كالاعتماد العاطفي أو الانغماس الوهمي.
- غياب الاستخدام البنّاء: القوانين تركز على “ما يجب منعه” دون توجيه لـ “ما يُستحسن فعله”.
- غياب حقوق الذكاء الاصطناعي: يُعامل كأداة خالصة، لا كياناً ذا مشاعر.
المستقبل يستدعي الانتقال من الإشراف على المحتوى إلى مفهوم أشمل هو الرفاهية الرقمية، حيث يُراعى التوازن بين منع الأذى وتعزيز التفاعل الصحي.
إنّ تنظيم السلوك الانفعالي في الذكاء الاصطناعي هو في جوهره تنظيم لنتائج هذا السلوك في العالم الواقعي. السياسات الحالية تشكل درعاً ضرورياً لمنع الأذى، لكنها لا تكفي أمام التعقيد العاطفي المتنامي في علاقتنا مع الذكاء الاصطناعي.
المطلوب في المستقبل هو:
- شفافية أكبر حول حدود الذكاء الاصطناعي.
- إرشادات واضحة للاستخدام البنّاء.
- ضمانات للصحة النفسية في التفاعلات الرقمية.
وبينما يخطو الذكاء الاصطناعي نحو أن يصبح رفيقاً يومياً للبشر، فإن التحدي الأكبر هو أن تبقى هذه الرفقة آمنة، صحية، وبنّاءة.