ما لم يستطع العلماء تفسيره في عمل الذكاء الاصطناعي

ظلت فكرة تقدم الذكاء الاصطناعي لمرحلة يحل فيها مكان البشر موضوعا شائعا لعدة عقود، وفي سنة 2021، قدم العلماء الجواب النهائي لاحتمالية حدوث ذلك: لا يُمكن للبشر خلق ذكاء اصطناعي فائق طالما يعجزون عن استيعابه والسيطرة عليه، فذلك النوع من الذكاء الاصطناعي سيحتاج إلى من يتحكم به ويُحلله بواسطة بناء محاكاة خاصة.

وغالبا ما تبدو الشبكات العصبية العميقة (DNN-Deep neural networks) – المكونة من طبقات متعددة من أنظمة معالجة البيانات التي قام العلماء بتغذيته بها لتقليد الشبكات العصبية لدماغ الإنسان- كأنها تعكس ليس فقط الذكاء البشري، ولكن أيضا عدم القدرة على تفسير الكيفية التي يتم بها عمل دماغ الإنسان.

ويواجه الأشخاص الذين يطورون الذكاء الاصطناعي، مشاكل متزايدة في شرح كيفية عمله وتحديد سبب إعطائه نتائج معينة قد تكون غير متوقعة أحيانا، فمعظم أنظمة الذكاء الاصطناعي تعمل بطريقة تسمى “الصندوق الأسود”، وهي أنظمة يتم التعرض لها فقط من حيث مدخلاتها ومخرجاتها، لكن لا يحاول العلماء فك شفرة هذا “الصندوق الأسود”، أو العمليات الغامضة التي يقوم بها النظام، طالما أنهم يتلقون المخرجات التي يبحثون عنها.

وإذا قدمت- علي سبيل المثال- بيانات للذكاء الاصطناعي حول كل نكهة آيس كريم، وبيانات ديموغرافية حول العوامل الاقتصادية والاجتماعية ونمط الحياة لملايين الأشخاص، فمن المحتمل أن تخمن نكهة الآيس كريم المفضلة لديك أو أين تفضل تناولها وفي أي متجر للآيس كريم، حتى لو لم يكن مبرمجا لهذا الغرض.

وتشتهر هذه الأنواع من أنظمة الذكاء الاصطناعي بمشكلات معينة، لأن البيانات التي يتم تدريبها عليها غالبا ما تكون متحيزة بطبيعتها، مما يحاكي التحيزات العرقية والجنسانية الموجودة داخل مجتمعنا، فمثلا كثيرا ما يتم تعرف الذكاء الاصطناعي بشكل خاطئ على الأشخاص السود بشكل غير متناسب من خلال تقنية التعرف على الوجه.

ومع الوقت يصبح من الصعب إصلاح هذه الأنظمة جزئيا لأن مطوريها غالبا لا يستطيعون شرح كيفية عملها بشكل كامل، مما يجعل المسألة صعبة. ونظرا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدا وأصبح البشر أقل قدرة على فهمها.

ويحذر خبراء الذكاء الاصطناعي والباحثون المطورين من التراجع في هذا الأمر، والتركيز بشكل أكبر على كيفية وسبب إنتاج الذكاء الاصطناعي لنتائج معينة بدلا من معرفة حقيقة أن النظام يمكن أن ينتجها بدقة وسرعة. فإذا كان البشر يرغبون بإحراز التقدم في مجال الذكاء الاصطناعي الفائق، فعليهم الاستعداد للوصول إلى مرحلة يستحيل فيها فهم الذكاء الاصطناعي، ومن ثمّ سيستحيل التحكم به. إذن، يترتب على البشر طرح الكثير من التساؤلات حول المسار الذي يودون المضي فيه قدما في هذا المجال.

ويقول عالم الحاسوب مانويل سبريان من معهد ماكس بلانك للتنمية البشرية في ألمانيا في نفس العام 2021: “قد يبدو ظهور ذكاء اصطناعي فائق قادر على التحكم بالعالم من محض الخيال العلمي. لكن حتى في وقتنا الحالي، توجد آلات مستقلة تنفذ مهمات هامة، دون فهم المبرمجين لكيفية وصول الآلة إلى هذه المرحلة من الذكاء. هنا يتساءل البعض ما إن كان من الممكن تقدم هذا الذكاء الاصطناعي حتى يصبح خارجا عن سيطرة البشر ويشكل خطرا علينا”.

وتتمثل المخاطر في أن نظام الذكاء الاصطناعي قد يتخذ قرارات باستخدام قيم قد لا نتفق معها، مثل القرارات المتحيزة (كالعنصرية أو التمييز الجنسي). كما أن هناك خطر آخر يتمثل في أن النظام قد يتخذ قرارا سيئا للغاية ، لكن لا يمكننا التدخل لأننا لا نفهم أسبابه، بحسب ما قال جيف كلون، الأستاذ المساعد في علوم الكمبيوتر بجامعة كولومبيا البريطانية.

يذكر أنه تم استخدام أنظمة الذكاء الاصطناعي في السيارات ذاتية القيادة، وروبوتات المحادثة لخدمة العملاء، وتشخيص الأمراض، كما أن لديها القدرة على أداء بعض المهام بشكل أفضل من البشر.

موقع الإصلاح

أخبار / مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى