أوروبا – أظهرت دراسة حديثة أجراها الاتحاد الأوروبي للإذاعة والتلفزيون (EBU) بالتعاون مع هيئة الإذاعة البريطانية BBC، أن برامج الذكاء الاصطناعي التوليدي، مثل ChatGPT و Copilot وGemini وPerplexity، تشوه محتوى الأخبار في 45% من الحالات التي تولد فيها معلومات إخبارية، بغض النظر عن اللغة أو المنطقة الجغرافية.
ووفقًا للتقرير الذي وُصف بأنه الأكبر من نوعه في مجال الإعلام والذكاء الاصطناعي، فقد شملت الدراسة آلاف العينات من الأخبار التي تم توليدها عبر أنظمة الذكاء الاصطناعي في أكثر من 20 دولة أوروبية، وبـ15 لغة مختلفة.
نتائج غير دقيقة
وأشارت النتائج إلى أن أخطاء إعادة الصياغة، وتغيير السياق، وإضافة معلومات غير دقيقة أو مفبركة كانت أكثر أشكال التشويه شيوعًا، ما يثير قلق المؤسسات الإعلامية من تزايد انتشار المعلومات المضللة عبر الإنترنت.
وأوضح التقرير أن بعض النماذج تميل إلى المبالغة أو التحليل دون سند واقعي، مما يؤدي إلى فقدان الدقة التحريرية، بينما أظهرت نسبة ضئيلة فقط التزامًا بمعايير الحياد الصحفي والمصدرية الموثوقة.
مطالب بأطر تشريعية
وقالت لجنة البحث المشتركة بين EBU وBBC إن هذه النتائج تؤكد الحاجة إلى وضع أطر قانونية وأخلاقية أكثر صرامة لضمان استخدام الذكاء الاصطناعي في الإعلام بشكل مسؤول، لاسيما مع توسع اعتماده في غرف الأخبار الأوروبية والعالمية.
وأكد التقرير أن التشويه لا يرتبط بلغة معينة، إذ تم رصد نفس الأخطاء في الإنجليزية والفرنسية والعربية والإسبانية، ما يعني أن الخلل متجذر في آلية عمل النماذج وليس في الترجمة أو الإخراج اللغوي.
ويحذر الخبراء من أن استمرار الاعتماد غير المنضبط على هذه التقنيات قد يؤدي إلى تراجع الثقة في الصحافة التقليدية والمحتوى الرقمي على حد سواء.




