سيدني – واجهت منصة التصميم العالمية “Canva” موجة انتقادات حادة واتهامات صريحة بالانحياز السياسي، بعد واقعة غريبة رصدها المستخدمون داخل أدوات الذكاء الاصطناعي الخاصة بها. وكشفت لقطات شاشة تم تداولها على نطاق واسع عن قيام الخوارزميات باستبدال اسم “فلسطين” بكلمة “أوكرانيا” بشكل آلي في بعض النماذج والتصميمات الجاهزة. ومن الواضح أن هذه الواقعة لم تمر مرور الكرام، حيث فجرت نقاشاً عالمياً حول مدى حيادية هذه التقنيات وكيف يمكن “برمجتها” لتبني مواقف سياسية معينة في القضايا الجيوسياسية الحساسة.
“خطأ فني أم انحياز مقصود؟”: كيف بررت “كانفا” سقطة الذكاء الاصطناعي؟
في ردها على العاصفة الرقمية، حاولت شركة “Canva” امتصاص الغضب بتوضيح أن أنظمتها تعتمد على نماذج “تعلم آلي” تتأثر بطبيعة البيانات التي تم تدريبها عليها. وبناءً عليه، اعتبرت الشركة أن ما حدث قد يكون نتاج “سياق الاستخدام” أو خلل في معالجة البيانات، مؤكدة أنها تعمل على مراجعة الخوارزميات لمنع تكرار هذا “الخطأ”. ومع ذلك، يرى المستخدمون أن تكرار هذه الأنماط يعكس “انحيازاً خفياً” في تصميم الأنظمة الذكية التي تتبنى وجهات نظر سياسية غربية على حساب قضايا أخرى.
أخلاقيات الذكاء الاصطناعي: حينما تصبح “الخوارزمية” أداة للتضليل
أعاد هذا الحادث تسليط الضوء على إشكالية “تحيز الخوارزميات”، حيث أكد متخصصون أن الذكاء الاصطناعي ليس محايداً بالضرورة، بل هو مرآة للبيانات والأنماط التي يغذيها به المطورون. ونتيجة لذلك، يطالب الخبراء بضرورة وضع ضوابط أخلاقية صارمة تضمن الشفافية والحياد، خاصة مع الاعتماد الكلي على هذه المنصات في إنتاج المحتوى الرقمي العالمي. وفي ظل هذا الجدل، يبقى السؤال: هل تستطيع شركات التكنولوجيا فعلاً فصل “السياسة” عن “الذكاء الاصطناعي”، أم أن حياد الآلة سيظل مجرد “وهم” تكسره الوقائع الميدانية؟


