تحيّز آلي

ماذا يعني تحيز الآلة؟

انحياز الآلة هو ميل نموذج التعلّم الآلي إلى إجراء تنبؤات غير دقيقة أو غير عادلة بسبب وجود أخطاء منهجية في نموذج التعلّم الآلي ML model أو البيانات المستخدمة لتدريب النموذج.

يمكن أن يحدث التحيز في التعلم الآلي بسبب مجموعة متنوعة من العوامل. تتضمن بعض الأسباب الشائعة ما يلي:

  1. محدودية بيانات التدريب.
  2. اختيار نموذج تعلّم آلي غير مناسب تماماً للمشكلة أو لا يتمتع بالقدرة الكافية لالتقاط تعقيد البيانات.
  3. التحيز البشري الذي يتم إدخاله في عمليات جمع البيانات أو وضع العلامات أو هندسة الخصائص feature engineering.

غالبًا ما يكون التحيز الآلي نتيجة مبالغة عالم البيانات أو المهندس في تقدير أهمية hyperparameter أو التقليل من أهميته أثناء هندسة الخصائص وعملية ضبط الخوارزميات. المعامل الفائق hyperparameter هو معامل تعلّم آلي يتم اختيار قيمته قبل تدريب خوارزمية التعلّم. الضبط هو عملية اختيار المعلمات الفائقة التي ستقلل من دوال الخسارة لخوارزمية التعلم وتوفر المخرجات الأكثر دقة.

من المهم ملاحظة أنه يمكن استخدام التحيز الآلي لتحسين قابلية تفسير نموذج التعلم الآلي في حالات معينة. على سبيل المثال، سيكون النموذج الخطي البسيط ذو التحيز العالي أسهل في الفهم والتفسير من النموذج المعقد ذي التحيز المنخفض.

ومع ذلك، عندما يكون نموذج التعلّم الآلي مخصصاً لوضع التنبؤات والقرارات، فإن التحيز يمكن أن يتسبب في أن تنتج خوارزميات التعلّم الآلي مخرجات دون المستوى الأمثل، والتي قد تكون ضارة. وهذا صحيح بشكل خاص في حالة تسجيل الائتمان والتوظيف ونظام المحاكم والرعاية الصحية. في هذه الحالات، يمكن أن يؤدي التحيز إلى معاملة غير عادلة أو تمييزية لمجموعات معينة وله عواقب وخيمة في العالم الحقيقي.

شرح Techopedia للتحيز الآلي

يعد التحيز في التعلم الآلي موضوعًا معقدًا لأن التحيز غالبًا ما يتشابك مع عوامل أخرى مثل جودة البيانات. ولضمان بقاء نموذج التعلم الآلي عادلاً وغير متحيز، من المهم تقييم أداء النموذج باستمرار في الإنتاج.

تستخدم خوارزميات التعلّم الآلي ما تتعلمه أثناء التدريب لوضع تنبؤات حول المدخلات الجديدة. عندما يتم تخصيص بعض أنواع المعلومات بشكل خاطئ لبعض أنواع المعلومات أكثر – أو أقل أهمية مما تستحق – يمكن أن تكون مخرجات الخوارزمية متحيزة.

على سبيل المثال، تُستخدم برمجيات التعلم الآلي من قبل أنظمة المحاكم في بعض أنحاء العالم للتوصية بالمدة التي يجب أن يسجن فيها المجرم المدان. وقد وجدت الدراسات أنه عندما يتم ترجيح البيانات المتعلقة بعرق المجرم وتعليمه وحالته الاجتماعية بدرجة كبيرة جدًا، فمن المرجح أن تكون مخرجات الخوارزمية متحيزة وأن توصي البرمجيات بأحكام مختلفة بشكل كبير للمجرمين الذين أدينوا بنفس الجريمة.

أمثلة على تحيز الآلة

يمكن أن يظهر تحيز الآلة بطرق مختلفة، مثل:

  • التحيز التنبؤي: من المرجح أن يقوم النموذج بتنبؤات محددة لمجموعات ديموغرافية معينة من الأفراد.
  • التحيز التمثيلي: أثناء التدريب، يتم تمثيل بيانات ديموغرافية معينة تمثيلاً ناقصاً أو استبعادها.
  • التحيز في القياس: يتم تدريب النموذج باستخدام بيانات غير موثوقة أو غير مكتملة أو منحرفة.
  • التحيز الخوارزمي: أن يكون تصميم النموذج أو الخوارزمية المستخدمة في تدريبه متحيزًا بطبيعته بسبب خطأ بشري.

فيما يلي بعض الأمثلة على بعض القصص التي وردت في الأخبار التي تضرر فيها أشخاص أو شركات بسبب الذكاء الاصطناعي:

وجد تحقيق أجرته مؤسسة بروبابليكا (ProPublica) في عام 2016 أن نظام كومباس، وهو نظام ذكاء اصطناعي اعتمدته ولاية فلوريدا، كان من المرجح أن يشير إلى المتهمين السود على أنهم مجرمون معاودون في المستقبل أكثر من المتهمين البيض بمرتين. وقد أثار هذا الأمر مخاوف بشأن استخدام الذكاء الاصطناعي في العمل الشرطي والعدالة الجنائية.

في عام 2018، أفادت التقارير أن تقنية التعرف على الوجه من أمازون، والمعروفة باسم Rekognition، كان معدل عدم الدقة فيها أعلى بالنسبة للنساء ذوات البشرة الداكنة. وقد أثار ذلك مخاوف بشأن إمكانية استخدام هذه التقنية بطرق قد تضر بالمجتمعات المهمشة.

في عام 2020، اكتُشف أن روبوت الدردشة الآلي الذي استخدمته هيئة الخدمات الصحية الوطنية في المملكة المتحدة (NHS) لفرز المرضى أثناء جائحة كوفيد-19 كان يقدم معلومات غير صحيحة ويوجه الأشخاص إلى طلب العلاج في الأماكن الخطأ. وقد أثار ذلك مخاوف بشأن سلامة استخدام الذكاء الاصطناعي في اتخاذ القرارات الطبية.

في عام 2021، وجد تحقيق أجرته مجلة The Markup أن المقرضين كانوا أكثر عرضة بنسبة 80% لرفض منح قروض الإسكان للأشخاص الملونين مقارنةً بالأشخاص البيض ذوي الخصائص المالية المماثلة. وقد أثار هذا الأمر مخاوف بشأن كيفية استخدام خوارزميات الصندوق الأسود للذكاء الاصطناعي في الموافقات على الرهن العقاري.

في عام 2022، وُجد أن مجموعة iTutorGroup، وهي مجموعة من الشركات التي تقدم خدمات التدريس باللغة الإنجليزية للطلاب في الصين، قد برمجت برنامج التوظيف عبر الإنترنت الخاص بها لرفض المتقدمات الإناث اللاتي تبلغ أعمارهن 55 عامًا أو أكثر والمتقدمين الذكور الذين تبلغ أعمارهم 60 عامًا أو أكثر تلقائيًا. وقد أثار هذا الأمر مخاوف بشأن التمييز على أساس السن وأدى إلى قيام لجنة تكافؤ فرص العمل الأمريكية (EEOC) برفع دعوى قضائية.

كيفية اكتشاف تحيز الآلة

هناك عدة طرق يمكن استخدامها للكشف عن تحيز الآلة في نموذج التعلم الآلي:

  1. تحليل البيانات: يتم تحليل البيانات المستخدمة لتدريب النموذج للكشف عن أي مصادر محتملة للتحيز مثل الفئات غير المتوازنة أو البيانات المفقودة.
  2. مقاييس العدالة: تُستخدم مقاييس العدالة، مثل التكافؤ الديموغرافي أو تكافؤ الفرص، لتقييم تنبؤات النموذج لمجموعات مختلفة من الأفراد.
  3. التحليل المناقض للواقع: يُستخدم التحليل المناقض للواقع لتقييم كيف ستتغير تنبؤات النموذج إذا اختلفت بعض خصائص النموذج.
  4. فحص النموذج: يتم فحص معلمات النموذج وحدود القرار للكشف عن الأنماط التي قد تشير إلى التحيز.
  5. تقييم الأداء: يتم تقييم أداء النموذج باستخدام مجموعة متنوعة من البيانات للكشف عن التباينات في الأداء بين المجموعات المختلفة.
  6. Human in the loop approach: يقوم الخبراء البشريون بتقييم تنبؤات النموذج والبحث عن النتائج المتحيزة.

كيفية منع تحيز الآلة

هناك العديد من التقنيات التي يمكن استخدامها لتعزيز الذكاء الاصطناعي المتجاوب ومنع تحيز الآلة في نماذج التعلم الآلي. يوصى باستخدام طرق متعددة والجمع بينها من خلال القيام بما يلي:

  1. تنويع بيانات التدريب.
  2. استخدام قيود الإنصاف مثل التكافؤ الديموغرافي وتكافؤ الفرص.
  3. استخدام خوارزميات تصحيح التحيز.
  4. استخدام تقنيات التنظيم مثل التنظيم L1 و L2 لتقليل تعقيد النموذج وتعزيز التعميم.
  5. مراجعة توقعات النموذج وتفسيرها بانتظام لاكتشاف التحيز ومعالجته.
  6. دمج التغذية الراجعة والتدخل البشري في عملية التنبؤ بالنموذج لضمان اتخاذ قرارات غير متحيزة.

تحيز الآلة مقابل التباين

التحيز والتباين هما مفهومان يُستخدمان لوصف أداء ودقة نموذج التعلم الآلي. من المرجح أن يؤدي النموذج ذو التحيز المنخفض والتباين المنخفض أداءً جيدًا على البيانات الجديدة، في حين أن النموذج ذو التحيز المرتفع والتباين المرتفع من المرجح أن يكون أداؤه ضعيفًا.

  • يتم إدخال أخطاء التحيز عن طريق تقريب مشكلة واقعية بنموذج تعلّم آلي بسيط للغاية. غالبًا ما يكون نموذج التحيز المرتفع غير ملائم للبيانات لأن النموذج غير قادر على استيعاب تعقيد المشكلة.
  • يشير التباين إلى الخطأ الذي يتم تقديمه عندما يولي نموذج التعلّم الآلي اهتمامًا كبيرًا لبيانات التدريب بحيث لا يمكنه إجراء تعميمات دقيقة حول البيانات الجديدة. غالبًا ما يفرط نموذج التباين العالي في ملاءمة البيانات.

في الممارسة العملية، قد يكون إيجاد التوازن الأمثل بين التحيز والتباين أمرًا صعبًا. يمكن استخدام تقنيات مثل التنظيم والتحقق المتقاطع لإدارة التحيز والتباين في النموذج والمساعدة في تحسين أدائه.

مصطلحات ذات صلة

Margaret Rouse
خبيرة تقنيّة

مارغريت هي كاتبة ومعلمة تقنية حائزة على جوائز ومعروفة بقدرتها على شرح الموضوعات التقنية المعقدة لجمهور الأعمال غير التقني. على مدار العشرين عامًا الماضية، نُشرت تعريفاتها في مجال تكنولوجيا المعلومات من قبل كيو في موسوعة المصطلحات التقنية واستشهدت بها في مقالات في نيويورك تايمز ومجلة تايم ومجلة يو إس إيه توداي ومجلة زد دي نت ومجلة الكمبيوتر الشخصي ومجلة ديسكفري. انضمت إلى Techopedia في عام 2011. وتتمثل فكرة مارغريت عن اليوم الممتع في مساعدة المتخصصين في مجال تكنولوجيا المعلومات والأعمال على تعلم التحدث بلغات بعضهم البعض المتخصصة للغاية.