الذكاء الاصطناعي قادر على الكذب والإقناع به

يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقق من معلومة ما، لكنّ استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، على ما ظهر من النقاشات الحادة التي شهدتها منصة “إكس” بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.

وحسب وكالة “أ ف ب”، ففي مطلع غشت، عندما نشر النائب الفرنسي عن حزب “فرنسا الأبية” إيمريك كارون المؤيد للقضية الفلسطينية هذه الصورة من دون تعليق على “إكس”، بينما كان قطاع غزة مهدداً بـ”مجاعة معمّمة” وفقاً للأمم المتحدة، سارع كثر من المستخدمين إلى طلب التحقق من مصدرها من “غروك”.
وأعطى روبوت الدردشة المدمج في “إكس” جواباً جازماً مفاده أن هذه الصورة التُقطت في أكتوبر 2018 في اليمن، وأن الطفلة التي تظهر فيها تُدعى أمل حسين، وتبلغ سبع سنوات. وانتشر جواب “غروك” على نطاق واسع، واتُهم النائب بنشر معلومات مضللة.

ولكن تبيّن أن “غروك” كان مخطئاً. فالصورة التُقطت بالفعل في غزة في 2 غشت بعدسة المصوّر الصحافي المتعاون مع وكالة فرانس برس عمر القطّاع.

وتُظهر الصورة مريم دوّاس البالغة تسع سنوات، تحملها في مدينة غزة والدتها مدلَّلة التي شرحت لوكالة فرانس برس أن وزنَ ابنتها انخفض من 25 كيلوغراماً قبل الحرب إلى تسعة كيلوغرامات اليوم ، مضيفة: إنها لا تتلقى من الدعم الطبي “سوى الحليب، وهو غير متوافر دائماً، ولا يكفيها للتعافي”.

وعندما سُئل “غروك” عن عدم دقة إجابته، ردَّ قائلاً: “أنا لا أنشر أخباراً كاذبة، بل أعتمد على مصادر موثوق بها”. واعترف في النهاية بخطئه، لكنه كرره في اليوم التالي رداً على أسئلة جديدة من مستخدمي “إكس”.

ورأى الباحث في أخلاقيات التكنولوجيا ومؤلف كتاب “بونجور تشات جي بي تي” Bonjour ChatGPT لوي دو دييزباك أن خطأ “غروك” يبيّن حدود أدوات الذكاء الاصطناعي، التي تشبه في عملها “الصناديق السوداء”.

وإذ أشار الخبير إلى أن “من غير المعروف تحديداً سبب إعطاء هذه الأدوات هذه الإجابة أو تلك، ولا كيفية ترتيبها مصادرها”، لاحظ أن هذه الأدوات تنطوي على تحيزات مرتبطة ببيانات تدريبها، ولكن أيضاً بتعليمات مصمميها.

وأشار مثلاً إلى أن لروبوت المحادثة من شركة “إكس إيه آي” الناشئة التابعة لإيلون ماسك، وفقاً للخبير، “تحيزات نافرة أكثر تتوافق إلى حد كبير مع الأيديولوجيا التي يروج لها، من بين أمور أخرى”، الملياردير المقرب من أفكار اليمين المتطرف الأميركي.

وشرح لوي دو دييزباك أن توجيه سؤال إلى روبوت محادثة عن أصل صورةٍ ما، هو طلب يُخرجه من نطاق مهمته الأساسية.

وأضاف: “عادةً، عند البحث عن أصل صورة، قد يقول: ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة”.

وأوضح الخبير أن “النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف”.

ونشرت صحيفة “ليبراسيون” أخيراً صورة أخرى لوكالة فرانس برس، التقطها عمر القطّاع أيضاً، تُظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ”غروك” أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في يوليوز 2025 في غزة.

ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.

ويضيف دو دييزباك: “إذا شرح المستخدمون للنموذج أن إجابته خاطئة، لا يعني ذلك أنه سيُغيّر إجابته بين ليلة وضحاها، لأن بيانات تدريبه لم تتغير، وكذلك مطابقته”.

لكنّ الأخطاء ليست حكراً على “غروك”. فعندما سألت وكالة فرانس برس روبوت الدردشة التابع لشركة “ميسترال إيه آي” الناشئة التي تستطيع بصفتها شريكة لفرانس برس إدراج أخبار الوكالة في أجوبة نموذجها، أشارت أداتها هي الأخرى إلى أن الصورة التُقطت في اليمن.

ورأى لوي دو دييزباك عدم جواز استخدام روبوتات الدردشة للتحقق من الأخبار والصور، كما فيما يتعلق بمحركات البحث، لأن أدوات الذكاء الاصطناعي التوليدي “ليست مصممة لقول الحقيقة” بل “لإنتاج محتوى، سواء أكان صحيحاً أم خاطئاً”.

وخلص الخبير إلى القول: “يجب النظر إليه كصديق مهووس بالأساطير: فهو لا يكذب دائماً، لكنه قادر على الكذب دائماً”.

أخبار / مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى