يبدو أن خوارزميات الذكاء الاصطناعي التي لم تخضع للتجريب والتدريب الجيد قد تؤدي بالجهاز إلى اتخاذ قرارات تمييزية، ويحذر الخبراء من أن نظام الذكاء الاصطناعي الذي تستخدمه شركات التوظيف، والبنوك، وحتى المحاكم في بعض الأحيان، يعتمد على بيانات تنطوي على تحيز واضح ضد فئات معينة من بينها الإناث .
وفي عام 2014، طورت أمازون برنامج توظيف استخدمت فيه الذكاء الاصطناعي، إلا أن هذا البرنامج صار يميز بين طالبي العمل من الإناث. وبعد مرور عام على ذلك، اكتشف مستخدم لصور «غوغل» أن البرنامج كان يدرج السود في فئة «الغوريلا».
ودعم المهندسون النظام بـ500 نموذج لدراسة السير الذاتية للمرشحين السابقين والاستفادة من حوالى 50 ألف مصطلح رئيسى، وقال مصدر لرويترز :”أرادوا حرفيا أن يكون محركا يتم خلاله تقييم السير الذاتية، وبعد ذلك يختار بينهم 5 يتم توظيفهم”.لكن بعد مرور عام، لاحظ المهندسون شيئًا مثيرًا للقلق حول محركهم، وهو أنه لا يحب النساء، وكان هذا على ما يبدو لأن الذكاء الاصطناعى حصل على خبرته من النماذج التى يغلب عليها الذكور والتى تم تقديمها إلى أمازون على مدى 10 سنوات.
ووفقا لتقرير من موقع “بيزنس انسايدر”، فضل نظام الذكاء الاصطناع الرجال، وخفض تصنيف النساء، عند الاختيار للوظائف، وقام مهندسو أمازون بتعديل النظام لمعالجة هذه الأشكال الخاصة بالتحيز، لكنهم لم يستطيعوا التأكد من أن نظام الذكاء الاصطناعى لن يجد طرقاً جديدة للتمييز غير العادل ضد المرشحين
لذلك حثت آن كيرنز، نائب رئيس مجلس الإدارة لدى ماستركارد النساء على المشاركة الجادة في تعلم تقنيات الذكاء الاصطناعي والتخصص فيها.وأضافت كيرز على هامش قمة التحالف المصرفي العالمي للمرأة “أجد من الأهمية مشاركة المرأة في التطور التقني، لأنه مع مرور الوقت ستتغير الطريقة التي تعمل فيها البنوك وستحل خواريزميات الذكاء الاصطناعي والمعادلات الحسابية والبيانات موقع الإنسان العامل في البنك وقد تتعقد طريقة حصول النساء على القروض والمعاملات البنكية لأن الآله غير مهيئة لفهم احتياجات وحقوق النساء بسبب غياب مشاركة المرأة في القطاع وافتقار البيانات المساندة لها”.
وقالت “يتوجب علينا تغذية هذة الآلات بالبيانات الحية والأنظمة التي تساند المرأة وتساند خياراتها البنكية لكن عزوف النساء عن اقتحام مجال الذكاء الاصطناعي والتكنولوجيا قد يحد من فرصهن في الحصول على التسهيلات البنكية أو القروض التي تدفع مسيرتهن الاقتصادية والمهنية، لأننا أهملنا هذا الجانب وجعلناه حصراً على الرجل”.
وأضافت “الشمول المالي يقف جنباً إلى جنب مع فهم المرأة لطبيعة دورها في المرحلة القادمة. أطمح لأرى النساء يدخلن هذا المجال حتى لا نصطدم في المستقبل بعقبات أكبر وأهمها التحير والتمييز من الذكاء الاصطناعي من قبل الرجال. لسوء الحظ فهناك القليل من النساء المختصات في البرمجة والهندسة التكنولوجية جنباً إلى جنب مع التعليم المالي”.
وتابعت “استخدام الذكاء الاصطناعي يزداد يوماً بعد الآخر في عمليات اتخاذ القرار لكن صحة هذة القرارات تعتمد على جودة البيانات التي تدرب عليها، وفي الكثير من الأحيان ينتهي بنا الأمر في إدخال تحيزاتنا البشرية في الخواريزميات التي ستتكفل باتخاذ قرارات بشأن المرأة في المستقبل، وهنا تكمن المشكلة”.
إلى ذلك، قال ريستان جرين، خبير الذكاء الاصطناعي الأميركي: إن الآلات بطبيعتها لا يوجد لديها انحياز، كما أن الذكاء الاصطناعي لا يريد من الشيء أن يكون صحيحاً أو خطأً لأسباب لا يمكن تفسيرها من خلال المنطق. وللأسف، يوجد تحيز بشري في التعلم الآلي بسبب إنشاء خوارزميات البيانات، وحتى الآن لم يحاول أحد حل هذه المشكلة الضخمة.
وأضاف: الانحياز صفة بشرية، ولأن الذكاء الاصطناعي يحاكي الذكاء البشري عن طريق التعلم من البيانات المدخلة له فسيرث منه عيوبه كذلك، فإذا احتوت البيانات على عنصرية أو طبقية أو تمييز جنسي، ستكرس الأنظمة هذه الأفكار وتعزز منها.
وفى 20 نوفمبر كشفت دراسة أجراها معهد “ماساتشوستس للتكنولوجيا” عن الطريقة التي يجمع من خلالها نظام الذكاء الاصطناعي البيانات، ما يجعله عنصرياً ومتحيزاً جنسياً.ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزاً صادماً، لذا قاموا بتطوير نظام يساعدهم على التأكد من أن أنظمتهم أقل تحيزاً، بحسب ما أوردته صحيفة “ديلي ميل” البريطانية.
وقالت كبيرة الباحثين، إيرين تشن: “إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازاً، هي ببساطة تصميم خوارزميات أفضل.. وتظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر إذا تم إدخال بيانات أفضل”، في إشارة إلى أن عدم إدخال بيانات دقيقة وبكميات كبيرة يؤدي إلى ظهور الخلل في نتائج البحث التي قد تظهر في صورة “عنصرية” من أنظمة الذكاء الاصطناعي.
وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40%.وتقول تشن إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائماً أفضل لإعطاء نتائج قريبة إلى الحقيقة.
مخاطر الذكاء الصناعى لن تتوقف عند التمييز
الذكاء الإصطناعي سيكون له تأثير إيجابي كبير على حياة البشر من زيادة الفعالية والراحة في كثير من تفاصيل الحياة اليومية، لكن هناك سلبيات متوقعة على حياة البشر، من أبرزها:
1- فقدان الوظائف
سيتم استبدال الكثير من الوظائف بعميل ذكاء إصطناعي يقوم بنفس المهام التي يقوم بها البشر، وبكفاءة أعلى وتكلفة أقل بكثير ودون كلل أو ملل. مما يجعل الاستغناء عن الموظف هو الحل الوحيد للمؤسسة التي تريد البقاء في السوق وتنافس البقية. المقالة السابقة كانت مخصصة عن هذا الموضوع هنا
2- زيادة الفارق في الدخل بين الأغنياء والفقراء
حيث بسبب فقد الكثير من وظائفهم سينتج عنه انخفاض دخل بعض الطبقات، يقابله إنتاجية عالية جداً من الشركات. حيث يحقق ذلك أرباحاً طائلة لتلك الشركات التي تسرع في تبني هذه التقنيات . النتيجة أن أرباب العمل ستزداد ثرواتهم بشكل كبير . أمازون بلغت قيمتها السوقية ترليون دولار، وصاحبها بيزوس ثروته 110 مليار دولار!! زيادة الفارق في الدخل (income gap) يقلل من استقرار المجتمع ككل، وقد يسبب إضطرابات مما يستدعي النظر المسبق في التداعيات.
بلغت القيمة السوقية لأمازون ترليون دولار في 2018، وثروة مؤسسها <جف بيزوس> تجاوزت المئة مليار دولار ليصبح أغنى رجل في العالم. مجموع ثروة أغنى 9 أشحاص في العالم تتجازز دخل 4 مليار نسمة
3- سباق تسلح عالمي باستخدام الذكاء الإصطناعي
حيث يمكن استخدام هذه التقنيات في الطائرات بدون طيار وغيرها من الأسلحة التي قد تسبب الدمار. المشكلة أن تطوير مثل هذه التقنيات أصبح من السهل ومتوفر، وقد ينتج عنه توفرها في أيدي غير مضمونة في أماكن مختلفة في العالم. حيث لا توجد اتفاقات دولية تحد من هذه التقنية، مما يشكل خطر دولي على المدنيين وعلى الدول. بعض العلماء في شركة قوقل وقعوا اتفاقية تمنع استخدام الذكاء الإصطناعي لأغراض عسكرية.
4- انحياز الذكاء الإصطناعي ضد بعض العرقيات والأجناس
المشكلة أنه كل هذه التقنيات يتم تدريبها باستخدام الكثير من البيانات. هذه البيانات يتم تجميعها عادة من فئة متعلمة ومخملية بخصائص معينة، ذلك يجعل البيانات منحازة وبالتالي الذكاء الإصطناعي الناتج سيُصبِح منحاز. مثال: الكثير من الشركات تستخدم خوارزميات للتنبؤ بفعالية الموظف قبل قبوله في الوظيفة، وقد تحرمه من الوظيفة في حال كان التنبؤ سيّء. فقد تقوم الخوارزمية (algorithm) بتفضيل ذوي البشرة البيضاء على ذوي البشرة السمراء في الوظيفة بناءً على إحصائيات معينة تفضل البيض تم استخدامها في تدريب الخوارزمية!! هناك بعض المنظمات التي قامت مؤخراً تهدف لنشر ثقافة العدل في الذكاء الإصطناعي وشركات تعمل على تقليل الانحياز (bias) للذكاء الاصطناعي، مثل شركة Kairos.
بعض تقنيات الذكاء الإصطناعي (مثل التعرف على الوجه) لا تعمل بشكل جيد مع ذوي البشرة السمراء بسبب الانحياز في البيانات التي استخدمت في تدريبها
5- انعدام الخصوصية الشخصية
حيث أنه هذه الأدوات التقنية الجديدة تطلب من المستخدم تزويد البيانات حتى تتيح توفير خدمات مقننة، إذا لم يزود العميل بياناته الشخصية فلن يحصل على المميزات التي يحصل عليها العملاء الآخرين، مما يشكل ضغط من أجل التخلي عن الخصوصية وتزويد الشركة ببيانات شخصية من أجل الراحة (trading privacy for convenience). في عام ٢٠١٨ ظهرت فضيحة سوء استخدام بينات المستخدمين لشركة فيس بوك من قبل طرف ثالث، مما استدعى التحقيق مع <زاكربرج> مدير الشركة في مجلس الشيوخ الأمريكي. هناك بعض المحاولات لاستخدام تقنية البلوكتشين من أجل وضع البيانات في محتوى الجميع وتطوير ذكاء اصطناعي دون منحها للشركات مثل مبادرة OpenMined، لكن ما زالنا في مراحل أولية.
كثير من الأدوات التي نستخدمها يومياً تنافي الخصوصية الفردية، لكن عادة يستغني الناس عن الخصوصية في مقابل التواصل مع الآخرين وجودة الخدمة المقدمة
أضف تعليق