الارشيف / تكنولوجيا

دراسة: معظم الباحثين من المتعاملين مع الأنظمة الذكية لا يفهمون طريقة عملها‎‎

محمد الرخا - دبي - الأحد 14 أغسطس 2022 12:00 صباحاً - أكدت دراسة جديدة أن فئة من الباحثين العاملين في قطاع تعليم الآلة غير قادرين على فهم طريقة عمل تلك التقنية من الأساس، مما ينذر بوقوع عواقب جسيمة في المستقبل.

في الوقت نفسه، تتزايد فيه مستويات اعتماد مجتمع البحث العلمي على أنظمة تعليم الآلة، باعتبار أن تلك الأنظمة توفر ساعات من الوقت والمجهود لتحليل قواعد معقدة وغير منظمة من البيانات.

أشار الباحثان أرفيند نارايانان وساياش كابور، باحثان جامعة برينستون، إلى أن انعدام قدرة عدد ضخم من الباحثين المعتمدين على أنظمة تعليم الآلة على فهم تلك التقنية، موضحين أنه في حال استمرت تلك الحالة في الوسط البحثي، فإن تبعاته لن يمكن توقع مدى سوئها.

بحسب موقع Wired، فإن الثنائي البحثي ثارت مخاوفه عندما تابع دراسة متعلقة بالعلوم السياسية تقوم باستخدام خوارزميات لتعليم الآلة بحيث تتمكن من توقع الحرب الأهلية المقبلة بنسبة دقة تصل 90%، إلا أن الباحثين تمكنا من تدقيق النظر في الدراسة واكتشاف أن نتائجها خاطئة، وذلك نتيجة لما أطلق عليه الباحثان أنه ”تسريب بيانات“.

ويتمثل ”تسريب البيانات“ مع أنظمة تعلم الآلة في استخدام الباحثين لأرقام وبيانات مغلوطة، وذلك نتيجة التعامل الخاطئ مع قواعد البيانات، مما يعيق تلك الأنظمة عن التعلم بشكل سليم.

لذلك فإنه بعد اطلاع الباحثين على دراسة الحرب الأهلية واكتشاف تسريب البيانات، بدأ ”نارايانان“ و“كابور“ في البحث عن أخطاء مشابهة لخوارزميات تعلم الآلة في دراسات أخرى، وكانت النتائج صادمة.

خلص الباحثان إلى حدوث ”تسريب البيانات“ في خوارزميات تعليم الآلة التي اعتمدت عليها 329 دراسة بحثية منشورة، ومنها في تخصصات العقاقير العلاجية والعلوم الاجتماعية.

أشار ”كابور“ إلى أن تلك الدراسات كانت تتضمن مستويات فائقة من الدقة في نتائجها المعتمدة على تحليل خوارزميات تعليم الآلة للبيانات، في الوقت الذي أثبت فيها مع زميله وجود أخطاء فادحة في عملية تعليم تلك الخوارزميات منذ بدايات إعدادها وتهيئتها.

وبحسب تصريحاتهما لموقع ”وايرد“، فإن الباحثان قد حددا الأسباب الرئيسية وراء الأخطاء الفادحة في الدراسات المعتمدة على تعليم الآلة، وهما سببان، الأول الضجة المبالغ فيها المحيطة بتلك الخوارزميات وقدراتها، والثانية هي قصور التدريبات التي يحصل عليها الباحثون قبل التعامل مع تلك الخوارزميات، وعدم قدرتهم على فهم القدرات الحقيقية لها وكيفية الاستفادة منها، خاصة مع اتجاه صناعة تقنيات الذكاء الاصطناعي نحو ترويج أنظمة تعليم الآلة بأنها تقدم مستويات غير مسبوقة من السهولة والكفاءة في معالجة البيانات، وهو ما يراه الباحثان أمرا ليس في مصلحة المجتمع البحثي دائما، لأن العنصر البشري يظل هو المؤثر الرئيسي في النتائج التي تتوصل إليها تلك الخوارزميات، لأنه هو المسؤول عن تدريبها في كافة مراحل التدريب، وبالتالي الأخطاء مسؤولية البشر وليس مسؤولية الأنظمة الروبوتية.

Advertisements
Advertisements

قد تقرأ أيضا