تكنولوجيا

في زمنٍ أصبحت فيه خوارزميات الذكاء الصناعي تقرّر من يحصل على قرض، ومن يُوظف، ومن يُراقب، ومن يتلقى علاجًا طبيًا، تبرز مشكلة عميقة تمسّ جوهر العدالة في مجتمعاتنا، وهي التحيّز في الذكاء الصناعي. مع أن كثيرين يعتقدون أن الآلة محايدة بطبيعتها، لكنّ الحقيقة العلمية والعملية تثبت العكس. ذلك أن الذكاء الصناعي لا يولد من فراغ، هو يتغذى من بيانات مصدرها البشر، ويتكوّن وفقًا لنماذج يبرمجها مطورون، وقد يرسخون بدورهم تحيزاتهم، بوعي أو من دون وعي، في قراراته اليومية.
التحيّز في الذكاء الصناعي (AI Bias) هو ميل الخوارزميات إلى اتخاذ قرارات غير عادلة أو غير دقيقة ضدّ أفراد أو جماعات معينة، نتيجة لاستخدام بيانات غير ممثلة للجميع، أو بسبب تصميم خوارزمي غير متوازن.
هذا التحيّز قد يؤدي إلى نتائج كارثية، مثل استبعاد مرشحين أكفاء من فرص العمل، أو حرمان أشخاص من خدمات طبية، أو حتى الحكم على أشخاص بمستويات خطر جنائي غير دقيقة. وبحسب دراسة شاملة، نشرتها مجلة ACM Computing Surveys، يمكن للتحيز أن يتسلل إلى الذكاء الصناعي عبر مراحل التطوير كلها: من جمع البيانات إلى اختيار النماذج إلى تفسير النتائج.
مع أننا نتحدث عن "ذكاء صناعي"، فخلف كل نموذج خوارزمي هناك عقل بشري يصمّمه. وهنا يظهر أول وأخطر أنواع التحيّز وهو التحيّز البشري.
هذا النوع يحدث عندما يقوم مطوّر النظام، أو من يجمع البيانات، بإدخال تحيزاته غير الواعية في الخوارزمية. على سبيل المثال، عندما طوّرت شركة تقنية نموذجًا لتحليل السير الذاتية، تبين أنه يفضّل السير الذاتية للرجال على حساب النساء! وهذا فقط؛ لأنّ البيانات التي درّب عليها النموذج كانت تستند إلى تاريخ توظيف ذكوري. وإن كان هذا التحيّز قد يبدو غير مقصود، لكنّه يعمّق من انعدام العدالة في المجتمعات، ويعيد إنتاج صور نمطية خاطئة.
لحلّ هذه المشكلة، يوصي الباحثون بتدريب فرق التطوير على مبادئ أخلاقيات الذكاء الصناعي، وإشراك أشخاص من خلفيات ثقافية وجندرية مختلفة في بناء النماذج.
تحيّز التمثيل (Representation Bias): ويُسمّى أيضًا تحيّز البيانات، ويحدث عندما تكون البيانات التي يُدرّب عليها الذكاء الصناعي غير ممثلة لجميع الفئات. فإذا كانت الصور المستخدمة في تدريب نموذج تعرّف الوجوه، تحتوي غالبًا على وجوه بيضاء، فسيصبح من الصعب على النموذج التعرف بدقة إلى الأشخاص ذوي البشرة الداكنة.
هذا ما أثبتته دراسة بارزة في أن أنظمة تصنيف النوع الاجتماعي (Gender Classification) المستخدمة تجاريًا أخطأت في التعرّف النساء ذوات البشرة الداكنة، بنسبة تصل إلى 34%، مقابل نسبة خطأ لا تتعدى 1% مع البيض. للتقليل من هذا النوع من التحيّز، لا بدّ من تنويع البيانات المستخدمة في التدريب، واستخدام تقنيات مثل إعادة التوازن الإحصائي (Re-sampling) أو تعزيز بيانات الفئات الأقل تمثيلًا (Data Augmentation).
تحيّز القياس (Measurement Bias): لا يتعلق بمن تمثّله البيانات فقط، أيضًا بكيفية قياس الخصائص أو النتائج. والمشكلة تظهر حين تُستخدم مؤشرات غير دقيقة أو لا تعكس الواقع، فيؤدي إلى قرارات منحازة. مثال على ذلك، استخدام عدد زيارات المستشفى على أنه مؤشر لاحتياج المرضى للرعاية الصحية. هذه الطريقة قد تكون مضلّلة؛ لأن هناك بعض الفئات مثل ذوي الدخل المنخفض أو الأقليات العرقية لا يزورون المستشفيات بانتظام، ليس لأنهم لا يحتاجون إلى الرعاية، بل لأسباب اجتماعية واقتصادية.
هذه المشكلة ظهرت، في دراسة علمية نشرتها مجلة Science، حين اكتشف الباحثون أن خوارزمية تُستخدم لتحديد المرضى الذين يحتاجون إلى رعاية إضافية قلّلت من شأن احتياجات المرضى السود بنسبة كبيرة مقارنة بنظرائهم البيض.
الوقاية من تحيّز القياس تتمثل باستخدام مؤشرات مركبة، والتأكد من أن تلك المؤشرات تمثّل سلوك المستخدمين، بشكل متوازن، في الفئات كلها.
تحيّز التأكيد (Confirmation Bias): هو ميل الخوارزميات إلى تقديم محتوى يتوافق مع تفضيلات المستخدم السابقة، ما يعزز قوقعته الفكرية، ويمنعه من رؤية وجهات نظر أخرى. ومحركات التوصية، مثل التي تُستخدم في وسائل التواصل الاجتماعي أو مواقع الأخبار، تُعد من أبرز الأمثلة على هذا التحيّز. فهي تميل إلى عرض محتوى يشبه ما تفاعل معه المستخدم سابقًا، ما يؤدي إلى تضييق أفقه المعلوماتي، وربما حتى تطرفه الفكري.
يمكن الحدّ من تحيّز التأكيد عبر تصميم خوارزميات توصية تُعطي وزنًا للمحتوى المتنوع، وإدخال عناصر "تشويش معرفي" مقصود لتوسيع الأفق المعلوماتي.
تحيّز الخوارزمية: هو النوع الأخير من التحيّز، والذي ينشأ من داخل الخوارزمية ذاتها، حين يكون التصميم الرياضي أو الإحصائي للنموذج يؤدي إلى نتائج غير متوازنة. وأشهر الأمثلة على ذلك هو نظام COMPAS الذي يُستخدم لتقويم مخاطر العودة للجريمة في الولايات المتحدة. هذا النظام وُجد أنه يتوقع معدلات عودة للجريمة أعلى بالنسبة إلى الأميركيين من أصل إفريقي مقارنة بالبيض، هذا على الرغم من عدم وجود فرق فعلي في البيانات السلوكية. الحل، هنا، يتطلب تقويمًا دوريًا لهذه الخوارزميات من خبراء مستقلين، بالإضافة إلى استخدام أدوات لقياس العدالة مثل Fairness Indicators .
التحيّز ليس قَدَرًا لا مفر منه؛ هناك عدة خطوات يمكن أن تساعد في بناء أنظمة ذكاء صناعي أكثر عدلًا:
1. تنويع فرق تطوير النماذج: لتقليل أثر التحيّزات غير الواعية.
2. فحص جودة البيانات: التأكد من أنها ممثلة للفئات جميعها.
3. استخدام أدوات فنية لرصد التحيز: مثل What-If Tool وFairlearn.
4. التوثيق والشفافية: بخصوص مصادر البيانات وطرائق التدريب والمعالجة.
5. المراجعة المستقلة: من خبراء في الأخلاقيات وحقوق الإنسان.
التحيّز في الذكاء الصناعي ليس مجرد مشكلة تقنية يمكن حلها بالكود، هو قضية أخلاقية وثقافية تعكس التفاوتات القائمة في مجتمعاتنا. والذكاء الصناعي العادل يبدأ من الإنسان: من وعيه، وأخلاقه وإدراكه أن التكنولوجيا يجب أن تكون أداة للعدالة، لا وسيلة لتكريس التمييز.
بناءً على ما تقدّم؛ التثقيف المجتمعي وتدريب المطورين وتحديث السياسات، كلها خطوات ضرورية إذا أردنا أن نبني مستقبلًا رقميًا أكثر شمولًا وإنصافًا.