آخر تحديث :السبت-09 أغسطس 2025-07:04م
إقتصاد وتكنلوجيا

استعمال الذكاء الاصطناعي للتحقق من الصور يولّد أجوبة خاطئة

السبت - 09 أغسطس 2025 - 09:10 ص بتوقيت عدن
استعمال الذكاء الاصطناعي للتحقق من الصور يولّد أجوبة خاطئة
(عدن الغد)متابعات:

يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقق من معلومة ما، لكنّ استعانتهم بأدوات الذكاء الاصطناعي محفوفة بالأخطاء التي قد ترتكبها، وهو ما ظهر في النقاشات الحادة التي شهدتها منصة إكس بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.

ففي مطلع أغسطس/ آب الحالي، عندما نشر النائب الفرنسي عن حزب فرنسا الأبية، إيمريك كارون، المؤيّد للقضية الفلسطينية، هذه الصورة من دون تعليق على "إكس"، بينما كان قطاع غزة مهدّداً بـ"مجاعة معمّمة" وفقاً للأمم المتحدة، سارع كثر من المستخدمين إلى طلب التحقق من مصدرها من "غروك".

وأعطى روبوت الدردشة المدمج في "إكس" جواباً جازماً مفاده أن هذه الصورة التُقطت في أكتوبر/ تشرين الأول 2018 في اليمن، وأن الطفلة التي تظهر فيها تُدعى أمل حسين، وتبلغ سبع سنوات. وانتشر جواب "غروك" على نطاق واسع، واتُهم النائب بنشر معلومات مضللة. لكن تبيّن أن "غروك" كان مخطئاً، فالصورة التُقطت بالفعل في غزة في 2 أغسطس بعدسة المصوّر الصحافي المتعاون مع وكالة فرانس برس عمر القطّاع.

وتُظهر الصورة مريم دوّاس البالغة تسع سنوات، تحملها في مدينة غزة والدتها مدلَّلة التي شرحت لوكالة فرانس برس أن وزنَ ابنتها انخفض من 25 كيلوغراماً قبل الحرب إلى تسعة كيلوغرامات اليوم. أضافت أنها لا تتلقى من الدعم الطبي "سوى الحليب، وهو غير متوافر دائماً، ولا يكفيها للتعافي".

وعندما سُئل "غروك" عن عدم دقة إجابته، ردَّ قائلاً: "أنا لا أنشر أخباراً كاذبة، بل أعتمد على مصادر موثوق بها". واعترف في النهاية بخطئه، لكنّه كرره في اليوم التالي رداً على أسئلة جديدة من مستخدمي "إكس".

رأى الباحث في أخلاقيات التكنولوجيا ومؤلف كتاب "بونجور تشات جي بي تي" (Bonjour ChatGPT)، لوي دو دييزباك، أن خطأ "غروك" يبيّن حدود أدوات الذكاء الاصطناعي، التي تشبه في عملها "الصناديق السوداء". إذ أشار الخبير إلى أن "من غير المعروف تحديداً سبب إعطاء هذه الأدوات هذه الإجابة أو تلك، ولا كيفية ترتيبها مصادرها"، ولاحظ أن هذه الأدوات تنطوي على تحيّزات مرتبطة ببيانات تدريبها، ولكن أيضاً بتعليمات مصمميها.

وأشار مثلاً إلى أن روبوت المحادثة من شركة إكس إيه آي الناشئة التابعة لإيلون ماسك "يملك تحيزات نافرة أكثر، تتوافق إلى حد كبير مع الأيديولوجية التي يروج لها، من بين أمور أخرى"، الملياردير المقرب من أفكار اليمين المتطرف الأميركي.

وشرح لوي دو دييزباك أن توجيه سؤال إلى روبوت محادثة عن أصل صورةٍ ما هو طلب يُخرجه من نطاق مهمته الأساسية. أضاف: "عادةً، عند البحث عن أصل صورة، قد يقول: ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة". وأوضح الخبير أن "النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف".

ونشرت صحيفة ليبراسيون أخيراً صورة أخرى لوكالة فرانس برس، التقطها عمر القطّاع أيضاً، تُظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ"غروك" أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في يوليو/ تموز 2025 في غزة. ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.

وترتبط تحيّزات الذكاء الاصطناعي ببيانات التدريب التي تُحدد قاعدة معارف النموذج، وفي مرحلة المطابقة التي تُحدد ما سيعتبره النموذج إجابة "جيدة" أو "سيئة". يضيف دو دييزباك: "إذا شرح المستخدمون للنموذج أن إجابته خاطئة، لا يعني ذلك أنه سيُغيّر إجابته بين ليلة وضحاها، لأن بيانات تدريبه لم تتغير، وكذلك مطابقته".

لكنّ الأخطاء ليست حكراً على "غروك". فعندما سألت وكالة فرانس برس روبوت الدردشة التابع لشركة ميسترال إيه آي الناشئة التي تستطيع بصفتها شريكة لفرانس برس إدراج أخبار الوكالة في أجوبة نموذجها، أشارت أداتها هي الأخرى إلى أن الصورة التُقطت في اليمن.

ورأى لوي دو دييزباك عدم جواز استخدام روبوتات الدردشة للتحقق من الأخبار والصور، كما في ما يتعلق بمحركات البحث، لأن أدوات الذكاء الاصطناعي التوليدي "ليست مصممة لقول الحقيقة" بل "لإنتاج محتوى، سواء أكان صحيحاً أم خاطئاً". وخلص الخبير إلى القول: "يجب النظر إليه كصديق مهووس بالأساطير: فهو لا يكذب دائماً، لكنه قادر على الكذب دائماً".

(فرانس برس)