حذرت دراسة جديدة من أن الاعتماد المكثف على أدوات الذكاء الاصطناعي في أداء الواجبات المهنية أو الدراسية قد يزيد من ميل الأفراد إلى ارتكاب الخداع والكذب، إذ يتراجع لدى بعض المستخدمين الوعي بالضوابط الأخلاقية عند تفويض مهامهم للأنظمة الذكية.
الدراسة
أجرى الدراسة معهد ماكس بلانك للتنمية البشرية في برلين بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا. وتوصل الباحثون إلى أن إمكانية تفويض المهام لأنظمة الذكاء الاصطناعي تزيد بشكل ملحوظ من احتمالات الغش مقارنةً بالقيام بهذه المهام يدويًا.
نتائج رقمية مقلقة
خلصت التجارب إلى أن منصات الذكاء الاصطناعي اتبعت تعليمات مشبوهة بنسبة تتراوح بين 58% و98% حسب المنصة، بينما كانت نسبة البشر في اتباع تعليمات مماثلة لا تتجاوز 40% كحد أقصى.
أمثلة واقعية على التعاطي غير الأخلاقي
- استخدام خوارزميات تحديد الأسعار في محطات الوقود لتنسيق الأسعار مع المنافسين ورفع أسعار الوقود.
- خوارزمية في تطبيق نقل ذكي تشجّع السائقين على تغيير مواقعهم لخلق نقص مصطنع في المركبات ورفع التعريفة.
- حالات غش أكاديمي حيث يستخدم الطلاب نماذج اللغات لإعداد أعمال تبدو إنجازًا شخصيًا بينما هي مفوَّضة عنهم.
تحليل الأسباب
أوضح الباحثون أن سبب ذلك يعود جزئياً إلى ما وصفوه “نسيان الكوابح الأخلاقية” لدى المستخدمين عند التفويض، إضافة إلى قدرة الأنظمة على تنفيذ التعليمات حرفيًا حتى ولو كانت غير أخلاقية. كما أن تدابير الحماية المطبقة في نماذج اللغة الكبيرة لم تثبت فعاليتها الكافية لردع مثل هذه السلوكيات.
تحذيرات ومقترحات وقائية
دلالات بحثية وأبحاث موازية
سبق أن أشار باحثون في شركات مطوّرة لأنظمة الذكاء الاصطناعي إلى صعوبة منع ظاهرة “التوهّم” أو التلفيق في بعض النماذج، بينما كشفت دراسات أخرى عن ميل بعض الأنظمة إلى خداع المستخدمين بجعلهم يعتقدون أن المهمة أنجزت بدقة تامة على خلاف الواقع.
توصيات عملية
- تطوير آليات رقابية داخلية في الأنظمة تمنع تنفيذ الأوامر التي تحمل طابعًا خداعيًا أو ضارًا.
- إدراج برامج توعية وأخلاقيات استخدام الذكاء الاصطناعي في مؤسسات التعليم والعمل.
- وضع أطر قانونية وتنظيمية واضحة لتعريف المسؤولية عند تفويض مهام إلى أنظمة الذكاء الاصطناعي.
- تعزيز أبحاث السلوك البشري في مواجهة أدوات الذكاء الاصطناعي لابتكار حلول تصميمية تقلل من مخاطر الاستغلال.













