الدكتورة زقوارن سامية

كلية الحقوق، جامعة الجزائر 1

الوظيفة أستاذةمحاضرة (أ ) أو مشاركة

E-mail: szegouarene@yahoo.fr 

 213550208683+

الملخص :

يشهد العالم حالياً ثورة تكنلوجية بسبب دخول خوارزميات الذكاء الاصطناعي في كل المجالات، مما جعلها جزءاً لا يتجزأ من حياتنا اليومية بداية من التشخيص الطبي ووصولاً إلى الهاتف الذكي،  حيث أن الذكاء الاصطناعي يلعب دورا هاما لتحقيق  الصالح العام و تسهيل الحياة و ضمان حقوق الأجيال الحالية و القادمة   اذ تكمن  أهميته في قدرة  الآلات الرقمية  و أجهزة الكمبيوتر على أداء مهام الانسان  مثل قدرة التعلم و التفكير، الا أن أهم الإشكاليات التي بدأت تظهر فيه هي عنصرية بعض تطبيقات الذكاء الاصطناعي، فعادة ما يصنف الناس الآخرين ممن يتعاملون معه وفقاً لعدد من المحددات على أساس اللون أو الجنس أو العرق أو الدين، وهذاما يتنافى مع مبدأ المساواة أمام القانون الذي ينادي به الإعلان العالمي لحقوق الانسان لسنة 1948 و كل الصكوك الدولية و الإقليمية و الدساتير الوطنية.  و من هنا يمكن طرح الإشكالية التالية:

ما هو الدور الذي تلعبه خوارزميات الذكاء الاصطناعي في مكافحة التمييز العنصري أو تقريره ؟

وللإجابة على هذه الإشكالية تم الاعتماد على المنهج الوصفي التحليلي من خلال تقسيم  البحث  الى  ثلاثة مباحث:

المبحث الأول :الذكاء الاصطناعي  آلية ذات حدينبين تفعيل مبدأ المساواة وتكريس العنصرية.

المبحث الثاني: الذكاء الاصطناعي  آلية للتحيز الجنسي.

المبحث الثالث: الذكاء الاصطناعي بين واقع نماذج الروبوتات العنصرية و تحديات تكريس المساواة و مكافحة التمييز العنصري

الكلمات المفتاحية : خوارزميات الذكاء الاصطناعي ، القدرة على التفكير ، ،الأنظمة الذكية ،العنصرية ، مبدأ المساواة.

 

Artificial Intelligence algorithms betweenachieving equality and spreading racism

Dr  :  Zégouarène Samia

 faculty of law university of Algiers 1

 

Abstract :

The world is experiencing a technological revolution due to the entry of STI algorithms in all fields, making them an integral part of our daily lives from medical diagnosis to smartphones. Artificial intelligence plays an important role in achieving the common good, facilitating life and guaranteeing the rights of present and future generations.  Its importance lies in the ability of digital machines and computers to perform human tasks, learn, and think. However, the most critical problem that is beginning to appear in it is the racism of some al applications. People usually classified and are treated according to several specifications based on skin colour, sex, race or religion. This is contrary to the principle of equality before the law proclaimed in the 1948 Universal Declaration of Human Rights and all international and regional instruments and national constitutions. Hence the following problems can be raised: what role do artificial intelligence algorithms play in combating racial discrimination or their report? The answer to this problem relied  on the descriptive analytical curriculum by dividing the research into three parts:

Part one: Artificial intelligence double-edged mechanism.

Part two: Artificial intelligence sexism mechanism.

Part three: Artificial intelligence between the reality of racist rob models and the challenges of enshrining equality and combating discrimination.

Keywords: Artificial intelligence algorithms, able to think, smart system, discrimination, the principle of equality.

 

مقدمة :

في السنوات 100 الماضية، شهد العالم تسارعا هائلا في التطور التكنولوجي بفضل تخصيص المزيد من الموارد للبحث والتطوير وتوليد المعرفة ؛ وقد جعل ذلك التكنولوجيا بمفهومها العابر للجغرافيا عنصرا هاما لقياس تطور المجتمعات وتقدمها ؛ ومع ذلك، أثار هذا التطور السريع أسئلة مهمة ومؤثرة في كل مرحلة من مراحل تاريخ البشرية، ومن خلالمراقبة التقدم التكنولوجي. نلاحظ ضغط القوى العظمى لتطوير تطبيقات متقدمة للغاية، مثل تطبيق الذكاء الاصطناعي (AI) واستخدامه في العديد من المجالات ؛ مما أثر بشكل كبير في نوعية حياة المجتمعات التي تستخدمها،[1](إسميك حسن،  د.ت)| الذكاء الاصطناعيAI: بين خدمة البشرية أو التفوق عليها ، stratigics  ، | https://strategiecs.com/ar/analyses/artificial-intelligence-serving-humans-or-surpassingن-them?psafe_param=1&gclid=EAIaIQobChMIlt_c097l_QIVD7TVCh2MdgBrEAMYASAAEgJiJfD_BwE   تاريخ الزيارة 18/3/2023.فتخيل أنك تدخل أحد مراكز التسوق التي تحتوي على نظام أمان قائم على الذكاء الاصطناعي، ثم تتفاجأ من أن الأبواب تمنعك من الدخولبعد تحليل أنظمتها لملامح وجهك، والتي أظهرت أنه من المحتملأن ترتكب جريمة داخل المركز، إما لأن ملامح وجهك تنتمي إلى عرق معين أو أن ملابسك تشير إلى عقيدة دينية. هذا الحدث قد يبدو غريبًا، ومع ذلك، يشهد العالم اليوم تطورًا سريعًا للتقنيات المتقدمة بسبب ظهور خوارزميات الذكاء الاصطناعي في جميع مناحي الحياة، مما يجعلها جزءًا لا يتجزأ من حياتنا اليومية، من التشخيص الطبي إلى الهواتف الذكية. فإن من بين القضايا الناشئة الأكثر بروزًا هي العنصرية في بعض تطبيقات الذكاء الاصطناعي. عادة ما يتم تصنيف الأشخاص الذين يعاملونهم وفقًا لعدة معايير على أساس الجنس والعرق والدين. وبما أن هذه الأنظمة من صنع الإنسان ولا يمكن أن تكون محايدة، فهل تصبح الآلة بعد ذلك انعكاسًا لذلك الشخص؟[2](سجدي  نجود،2022)| هل يورث البشر عنصريتهم للذكاء الاصطناعي؟ ، Independent arabia |  https://www.independentarabia.com/node/357311/ تاريخ الزيارة : 18/03/2023. لهذا السبب، ينغمس المبرمجون في ثقافاتهم المهيمنة، معتقدين أن خوارزمياتهم خالية من التحيزات التي جعلت الذكاء الاصطناعي وحشًا عنصريًا، ويتصرفون بطرق تعكس عدم التسامح والتمييز في المجتمع. دفع هذا بعض المطورين والباحثين إلى التركيز على الجانب الآخر من الخوارزميات، وهو التحيز تجاه أفراد معينين، ويمكن أن يؤدي هذا التحيز إلى اتهام شخص ما بجريمة لم يرتكبها لمجرد أنه ينتمي إلى عرق معين. وبعد بحث بسيط على محرك بحث Google الشهير، ستجد آلاف القصص التي يرويها أصحابها عن التمييز في الذكاء الاصطناعي على أساس اللون أو العرق أو الجنس أو الدين. إلى أي مدى يمكن للذكاء الاصطناعي تحقيق نهج متوازن بين الحق في المساواة وظهور التمييز العنصري ؟

تعريف الذكاء الاصطناعي: يمكن تعريف الذكاء الاصطناعي على أنه قدرة الآلات الرقمية وأجهزة الكمبيوتر على أداء مهام محددة يتم محاكاتها ومماثلة لتلك الخاصة بالأشياء الذكية ؛ على سبيل المثال، القدرة على التفكير أو التعلم من التجارب السابقة أو العمليات الأخرى التي تتطلب عمليات تفكير. الهدف من الذكاء الاصطناعي هو الوصول إلى الأنظمة الذكية والتصرف مثل البشر عند التعلم والفهم. توفر هذه النظم للمستخدمين مجموعة متنوعة من الخدمات مثل التعليم والاستشارة والتفاعل وما إلى ذلك[3].(Copeland, B.J  2019)Artificial intelligence https://www.britannica.com/technology/artificial-intelligence .Date of visit  06.09.2023.

  1. – يعرّف الذكاء الاصطناعي أيضًا على النحو التالي: ” إنها التقنية التي تمكن الآلات من تقليد مختلف المهارات البشرية المعقدة”. [4]( Sheikh, H., Prins, C., Schrijvers, E. 2023) | Artificial Intelligence: Definition and Background. In: / Mission AI. |  https://doi.org/10.1007/978-3-031-21448-6_2) تاريخ الزيارة 06/09/2023

وتعرف الخلايا العصبية الاصطناعية بأنها العلم الذي يدرس التحكم والتواصل في الكائنات الحية لتحقيق نموذج مثل العقل البشري، ويمكن أيضًا تعريفه على أنه هياكل حسابية مصاغة على أساس علم أمراض الخلية.

أما العنصرية: التحريض على التمييز أو الكراهية أو العنف ضد شخص أو مجموعة من الأشخاص بسبب أصلهم أو انتمائهم، أو عدم انتمائهم، إلى مجموعة إثنية أو عرق معين. وهذا التمييز والكراهية والعنف موجه ضد الأقليات[5].( Wex definitions team, May 2022) / racism / https://www.law.cornell.edu/wex/racism

العنصرية:  هي تعبير عن السلوكيات والمعتقدات التي تدعم فئة ما وتعطيها الحق في السيطرة على فئة أخرى ، وتسلب جميع حقوقها من حقيقة أن المجموعة الثانية تنتمي إلى عرق أو دين ، والفئة الأولى تمنح نفسها الحق في التحكم في مصيرهم وممتلكاتهم وهويتهم[6].2014 )  ,,Abu Khleif )|Definition of racism :The anti-Racial Safety Organisation  ,  |http://www.aoadlibya.org/article/ تاريخ الزيارة 20/03/2023.

 

المبحث الأول: الذكاء الاصطناعي  آلية ذو حدين بين تفعيل مبدأ المساواة و تكريس العنصرية

الذكاء الاصطناعي سلاح ذو حدين قد يعتبر وسيلة هامة تسمح بتفعيل مبدأ المساواة من خلال استعمال امكانياته لتحقيق الصالح العام الذي حدد في أهداف التنمية المستدامة للأمم المتحدة كما قد يكون وسيلة لتكريس العنصرية من خلال التطبيقات المبرمجة و الخوارزميات .

المطلب الأول: دور الذكاء الاصطناعي في تفعيل مبدأ المساواة ومكافحة التمييز العنصري

للذكاء الاصطناعي عدة استعمالات تسمح له بتحقيق المساواة و ضمان حقوق الأجيال الحالية و القادمة من خلال استعمال تطبيقات مبرمجة تجعله أقدر لتقديم افضل تخمين، حول ما يشكل تمييزًا، وما لا يشكل تمييزًا و بالتالي مكافحة التمييز العنصري.

الفرع الأول: استعمال إمكانات الذكاء الاصطناعي ضمان حقوق الأجيال القادمة

إن تطبيقات الذكاء الاصطناعي عديدة وضرورية عندما يتعلق الأمر بتعزيز مهمة أهداف التنمية المستدامة للأمم المتحدة (SDGs). إن تكنولوجيا الذكاء الاصطناعي قادرة على توليد خدمات جديدة تعتبر حاسمة لنجاح أهداف التنمية المستدامة. أحد الأمثلة على ذلك هو القدرة على إنشاء خدمات مبتكرة لمعالجة مجالات الاهتمام الكبيرة لأهداف التنمية المستدامة.

ومن أجل تحقيق هدف التنمية المستدامة الثالث في مجال الرعاية الصحية، يتم استخدام الذكاء الاصطناعي (AI) لتقديم فحوصات صحية عن بعد وأدوات المراقبة. ومن خلال تحليل كميات هائلة من البيانات، يمكن للذكاء الاصطناعي تقديم رؤى من مجموعات كبيرة من المرضى لتحسين التحليل والتشخيص التنبؤي. لقد نجح بالفعل في تنفيذ نماذج لتشخيص كوفيد من خلال فحوصات الرئة والتمييز بين أنواع السعال المختلفة. يتمتع الذكاء الاصطناعي والبيانات الضخمة بالقدرة على تعزيز أنظمة الرعاية الصحية من خلال تبسيط إجراءات المستشفى، وتوفير تشخيصات أكثر دقة، وتسهيل اتخاذ القرارات السريرية، وتقديم علاج ورعاية فائقة الجودة بجودة أعلى وبتكلفة منخفضة[7].) د.ن ،د.ت) /الذكاء الاصطناعي من أجل الصالح العام د.ت / https://www.itu.int/ar/mediacentre/backgrounders/Pages/artificial-intelligence-for-good.aspxتاريخ الدخول18 ..2023.03

الفرع الثاني: الذكاء الاصطناعي ومساعدة المجتمع في مكافحة التمييز العنصري

التمييز العنصري خطير جداً في حياتنا وهو أحد أسباب الفتنة والحروب التي تؤدي إلى التمييز بين الناس. لقد عرفت العنصرية منذ ولادة الحياة على الأرض، وذلك من خلال السلوكيات والمعتقدات التي تتجلى من خلال العنصرية. ويمكن أن ترفع فئة إلى درجة تهيمن فيها على أخرى، وتحرم الأفراد من جميع حقوقهم، مثل العنصرية على أساس البلد أو الأصل أو العرق أو الدين أو الجنس أو اللون، والعنصرية على أسس اجتماعية، وهي الأوسع في العالم.

وخاصة بعد مقتل رجل أسود يدعى “جورج فلويد” على يد ضابط شرطة أمريكي أبيض، انتشر على وسائل التواصل الاجتماعي في المملكة المتحدة مقطع فيديو لضباط شرطة بريطانيين وهم يخنقون رقبة رجل أثناء اعتقاله. إحياء ذكرى مأساة الرجل الأسود “جورج فلويد” الذي أثار رحيله موجة من الاحتجاجات في أنحاء الولايات المتحدة. كما لوحظ أنه بعد نشر الفيديو على الإنترنت، تمت إحالة الضابطين إلى مكتب سلوك الشرطة وتم إيقاف أحدهما عن العمل ومنع الآخر من المشاركة في العملية الميدانية.[8](د.ن. 2021). / مقتل جورج فلويد: السجن 22 سنة ونصف لضابط الشرطة السابق المدان بالقتل./ . https://www.bbc.com/arabic/world-57619409. تاريخ الزيارة: 07/09/2023.

 

من منظور استخدام الذكاء الاصطناعي لمكافحة التمييز العنصري: حاول باحثون من جامعات بنسلفانيا وكولومبيا وشمال الولايات المتحدة الأمريكية استخدام الذكاء الاصطناعي لمكافحة التمييز العنصري، لا سيما وأن المعاملة التمييزية للمجتمعات المتحضرة كانت قضية قائمة منذ فترة طويلة. طور باحثون من كلتا الجامعتين أيضًا تقنية تكشف عن التمييز على أساس خصائص محددة، مثل الجنس أو العرق، بناءً على تقنية تُعرف باسم”خوارزميات الواقع المضاد” “counter-reality algorithms” بحيث يتم تدريب أنظمة الذكاء الاصطناعي ، لتكون قادرة على تقديم أفضل تخمين، حول ما يشكل تمييزًا ، وما لا يشكل تمييزًا.

 

هي تطبيقات تساعد على فهم ومعرفة البيانات والمعلومات في المجلات المختلفة . نظرا لأهميتها في الحياة اليومية فقد أصبح  من الضروري استخدامها والاستفادة منها في محاربة التمييز العنصري في بعض الدول العربية والأوروبية المجتمعات و منها :

1- تطبيق: الملاحظات الصوتية: Application: Otter Voice Noteهو تطبيق يتيح للمستخدمين تسجيل الملاحظات الصوتية وتدوينها بسهولة حيث يعتمد على تقنية الذكاء الاصطناعي لفهمها والتقاط المحادثات الصوتية الطويلة التي تحدث بين عدة أشخاص وتحويلها إلى ملفات نصية ومشاركتها مع أشخاص آخرين لذلك تعد المشاركة مثالية للصحفيين والطلاب لأنه يساعدهم على أن يكونوا أكثر تركيزًا وتعاونًا. أثناء الاجتماعات والمقابلات والمحاضرات وغيرها من المحادثات المهمة، كما يسمح لك بالتقاط الصور لإدراجها في النص، وتشغيل الصوت بسرعة قابلة للتعديل، بالإضافة إلى تصدير الملاحظات النصية كملفات TXT أو PDF أو SRT أو نسخها ملاحظات صوتية يمكن تصديره كملفات MP3، من بين ملفات أخرى، كما أنه يتكامل أيضًا مع iOS وتقويم Google، ويذكرك بتسجيل الاجتماعات، ويقوم تلقائيًا بإعداد المحادثات للاجتماعات.[9](آية العضيبات، 2020) / تطبيق otter voice notes  /

https://e3arabi.com/%D8%A7%D9%84%D8%AA%D9%82%D9%86%D9%8A%D8%A9/%D8%AA%D8%B7%D8%A8%D9%8A%D9%82-otter-voice-notes/ تاريخ الزيارة: 07/09/2023.

2-تطبيق Replika: هو عبارة عن روبوت دردشة تفاعلي يعتمد على الذكاء الاصطناعي ويمكن استخدامه للتحدث مع أشخاص آخرين أو أشخاص حقيقيين، ويعتبر هذا التطبيق أيضًا تطبيق مراسلة، ولكن في هذه الحالة أنت تقوم ببرمجة إنسان افتراضي، فهو يعتمد على الذكاء الاصطناعي، وهو مصمم للتعامل معك كشخص حقيقي، وبذلك يوفر لك مكانًا آمنًا للحديث عن أفكارك ومشاكلك ، كما أنه متاح لك على مدار الساعة ، سبعة أيام في الأسبوع ، وتتميز بالقدرة على فهم أفكارك ومشاعرك وتحسين مزاجك ، حيث يمكنك تعلم مهارات جديدة في التعامل والعمل لتحقيق أهداف مثل التفكير الإيجابي وإدارة التوتر[10]. (Admin. 2022) / What You Need to Know About…Replika. Ineqe Safeguarding Group./ https://ineqe.com/2022/01/20/replika-ai-friend/.تاريخ الزيارة: 07/09/2023.

 

3-تطبيقBrain.fm: هو تطبيق يمنحك مجموعة من المقطوعات الموسيقية التي صممها الذكاء الاصطناعي لتحسين التركيز والتأمل والنوم والاسترخاء خلال 15 دقيقة من الاستخدام اليومي. كل ما عليك فعله هو تثبيت التطبيق واختيار ما تريد تحقيقه، مثل التركيز أو الاسترخاء أو التأمل أو النوم، وسيبدأ التطبيق في تشغيل مقطوعة موسيقية بناءً على اختيارك، والتي يعتقد الباحثون أنه يمكن استخدامها لإنشاء موسيقى مسار لمكافحة العنصرية[11].(Ojala, (Ojala, A. 2023) / Brain.fm Review – My Experience With Their Neural Music. Squeeze Growth. / https://squeezegrowth.com/fr/brain-fm-review/)  تاريخ الزيارة 07/09/2023.

4تطبيق Deep Art Effects: هو تطبيق يسمح لك برسم عملك الفني بمساعدة خوارزميات التعلم الآلي والذكاء الاصطناعي والشبكات العصبية، كما يتمتع التطبيق بوظيفة محاكاة أسلوب بعض أعظم الرسامين في التاريخ مثل فان جوخ، ومونيه، دافنشي ومايكل أنجلو وبيكاسو، ومن خلال تطبيق هذه الأنماط على صورك، يوفر لك التطبيق أكثر من 40 فلترًا بأسلوب الفنانين المشهورين، بالإضافة إلى أنه يمكنك مشاركتها على حساباتك على مواقع التواصل الاجتماعي. يمكن استخدامها لإنشاء صور وأعمال فنية تحارب مختلف أشكال العنصرية ومشاركتها مع الآخرين[12]. (Garofalo, E. 2021). / Turn Your Photos Into Works of Art With Deep Art Effects’ Black Friday Deals. MUO. / https://www.makeuseof.com/deep-art-effects-black-friday-deals/ تاريخ الزيارة: 07/09/2023.

المطلب الثاني: كيف يمكن أن يكون الذكاء الاصطناعي عنصريًا؟

للإجابة على هذا السؤال لابد من الرجوع الى امثلة البرامج الذكاء الاصطناعي و بعض التجارب التي أظهرت انحياز الذكاء الاصطناعي و عنصريته.

الفرع الأول: برمجة الخوارزميات على التمييز من البشر

وتجدر الإشارة إلى أن برمجة خوارزميات الذكاء الاصطناعي تعتمد بشكل أساسي على المعلومات والبيانات التي يقدمها المطورون، والتي يمكن استغلالها بطريقة عنصرية، وتجدر الإشارة إلى أن الحاجة الأساسية إلى «التعلم العميق» تعتبر أهم عنصر للذكاء الاصطناعي. يعني استغلال البيانات والتعلم العميق بشكل أساسي أن الخوارزميات تعتمد على البيانات الموجودة ثم تتعرف عليها دون تدخل بشري.

في عملية التعلم العميق، ستتعلم خوارزمية البرنامج، والتصنيف مباشرة من الصور والنصوص والصوت، ويمكنك تحقيق مستوى محسن من الدقة يتجاوز أحيانًا مستويات الأداء البشري. على سبيل المثال، تمت برمجة خوارزمية للتعرف على القطط في آلاف الصور وإنشاء نمط من خلال التعرف على شكل القطة وجسمها من الصور المسماة «القط».

ليس هناك شك في أن البيانات المستخدمة في برامج الذكاء الاصطناعي تلعب دورًا مهمًا في مكافحة العنصرية والتمييز العنصري. عندما تغذي أنظمة الذكاء الاصطناعي القائمة على الحقوق بالبيانات العنصرية، فإنها تدين السود بشكل تعسفي. يوصي الخبراء بإعداد وتعديل بيانات التدريب حتى لا تضر بالأقليات من أجل تجنب حالات مثل التحيز والتمييز العنصري في خوارزميات الذكاء الاصطناعي.[13](غونيول عبد القادر، د.ت( / السلوك البشري يفرض عنصريته على الذكاء الاصطناعي ،/https://www.aa.com.tr/ar/تاريخ الزيارة 03/03/2023.

الفرع الثاني: بعض الأمثلة للتحيز العنصري الموجود في التكنولوجيا

توجد صور مختلفة اليوم لتحيز العنصري الرقمي تظهر في :

1-صنابير المياه الأوتوماتيكية:في المطاعم والحمامات العامة، غالبًا ما يشتكي الأشخاص السود من أن الحنفيات لا تطلق الماء والصابون على أيديهم لأن أجهزة الاستشعار الموجودة في الأجهزة لا يمكنها اكتشاف درجات لون البشرة الداكنة.

2-كاميرا: عند اختراع الكاميرات الملونة، أصبح من الواضح أن تصوير الأفراد البيض كان ملفتًا للنظر وممتعًا من الناحية الجمالية، بينما بدا تصوير الأفراد السود ضبابيًا ومشوهًا.

3-وسائل التواصل الاجتماعي: منصات ووسائل التواصل الاجتماعي تساعد على انتشار خطابات الكراهية والعنصرية. وعلى الرغم من الجهود المبذولة لتقييد هذا المحتوى من خلال خوارزميات معدلة، تظل هذه المنصات أرضًا خصبة لنشر الأيديولوجيات الضارة.

4- لعبة بوكيمون غو: لاحظ لاعبو Pokémon Go أن هناك دلالات عنصرية، بما في ذلك عدم وجود خرائط للأحياء الفقيرة أو الأقليات في الولايات المتحدة في خرائط اللعبة، مما يعني أن الأشخاص الذين يعيشون في تلك الأحياء لم يُسمح لهم باللعب.

5- صور جوجل: لوحظ أن صور غوغل تحتوي على خوارزميات «قبيحة». يُظهر البحث عن الصور عن «الغوريلا» صورًا لرجال سود مع وصف – بحث على غوغل – بعض النساء السود من الرجال، كما في حالة ميشيل أوباما وسيرينا ويليامز وسوجورنر تروث.[14])الراوي  طه ،2020) /عنصرية التكنولوجياعن أسباب وأشكال التحيز الرقمي  /   https://www.noonpost.com/content/37283    تاريخ الزيارة 18/03/2023.

الفرع الثالث: أولى تجارب التمييز العنصري للذكاء الاصطناعي

في عام 2014، بدأ خبراء التعلم الآلي في أمازون العمل على أداة ذكاء اصطناعي تجريبية لاستبدال الموظف المسؤول عن معالجة التطبيقات بمجرد تحليل السير الذاتية للمرشحين، وتسجيل الطلب من 1 إلى 5 وتقديم اختيار أفضل مرشح لهذا المنصب.

في عام 2015، وجد المطورون أن الأداة لم تقيم بشكل محايد السير الذاتية للوظائف الفنية، مثل مطوري البرامج ؛ إنه يميز بين الرجل والمرأة، ويخصص تقييمات منخفضة للغاية للطلبات التي تحتوي على كلمة «نساء» ويخفض تصنيف المرشحين الذين التحقوا بجامعات نسائية بالكامل. وتجربة أمازون ليست الوحيدة التي يصبح فيها الذكاء الاصطناعي عنصريًا ؛ في عام 2016، اختبرت Microsoft حادثة مماثلة بعد 24 ساعة من إطلاق روبوت دردشة على Twitter مصمم لاستهداف مستخدمي Twitter بطريقة ذكية ومضحكة ؛ انتهى الأمر بالرد على المستخدمين بتغريدات عنصرية مليئة بالكراهية[15].(Dastin, J. 2018). / Amazon scraps secret AI recruiting tool that showed bias against women /  https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G) date of visit: 05/09/2023.

هل من المعقول أن ينقل البشر آفة العنصرية إلى آلة ؟ ليس تماما ؛ تتعلم أدوات الذكاء الاصطناعي نفسها من خلال ما يسمى التعلم الآلي، بناءً على البيانات التي تتلقاها من مطوريها. في حالة أمازون، حللت أداة الذكاء الاصطناعي بيانات السيرة الذاتية من موظفين سابقين على مدار السنوات 10 الماضية، ثم وجدت بشكل مستقل أن المرشح الأمثل للمنصب يشبه المرشحين السابقين، ومعظمهم من الرجال وليس من النساء..، بشرط أن يكون المرشح الأمثل ليست امرأة. في حالة مايكروسوفت، كانت البيانات التي تلقاها الروبوت بيانات عامة من المحادثات الجارية بالفعل على الإنترنت، لكن معظمها كانت محادثات مثيرة للجدل وليست حوارات عقلانية، حيث هاجم المستخدمون البعض بأوصاف عنصرية[16].)معابرة تسنيم، 2021) /عنصريّة الذكاء الاصطناعي ، /  https://molhem.com/@tasneem_maabreh تاريخ الزيارة : 18/3/2023.

ما فعلته أداة الذكاء الاصطناعي من أمازون ومايكروسوفت كان تمييزيًا عنصريًا، ولكن عن غير قصد، لأن الرجال يتحكمون في الوظائف التقنية في أمازون على مر السنين، وفي حالة مايكروسوفت، اقتصرت المفاوضات على أفق واحد. يتكرر هذا التمييز بطرق مختلفة عندما تشارك مجموعة مماثلة من الناس في مجال لا يوجد فيه تنوع في المجموعات ووجهات النظر المشاركة، عندما تحكم طبقة معينة من الناس بمشاركة أو بدون مشاركة بقية المجتمع وبقية السكان. الأعمال التجارية. الصورة ؛ بالطبع، يتم وضع قوانين لا تأخذ في الاعتبار مصالح واحتياجات المجموعات الأخرى. ومشاركة النساء والرجال والشباب والمعوقين وجميع الفئات الاجتماعية في جميع أشكال الحياة ضرورية لتجنب أي شكل من أشكال التمييز، سواء كان ذلك عن قصد أم لا.

 

المبحث الثاني:الذكاء الاصطناعي  آلية للتحيز الجنسي

يوجد أرشيف صغير قيّم من الأدلة على أن أنظمة الذكاء الاصطناعي متحيزة وعنصرية وتميل إلى تكرار الصور النمطية السامة العنصرية والمتحيزة جنسيًا. لذلك ليس من الصادم معرفة أن تلك الخوارزميات العنصرية والمتحيزة جنسيًا يمكن استخدامها لصنع روبوتات عنصرية ومتحيزة جنسيًا أيضا.

المطلب الأول: دراسة عملية تؤكد التحيز العنصري لذكاء الاصطناعي بسبب السلوك البشري

يأتي ما سبق من مقال جديد كتبه باحثون من Johns Hopkins و Georgia Tech، الذين استخدموا نموذجًا للغة الذكاء الاصطناعي يستخدم على نطاق واسع لتعليم روبوت افتراضي للتفاعل مع الأشياء المادية. تلقى الروبوت كتلًا بها صور لوجوه بشرية من أعراق وأجناس مختلفة، ثم كلف بمهام تتعلق بتنفيذه، بما في ذلك معالجة هذه الكتل[17].Hundt, A.,) Agnew, W., Zeng, V., Kacianka, S., & Gombolay, M. C,2022)./ Robots enact malignant stereotypes. 2022 ACM Conference on Fairness, Accountability, and Transparency /https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 ,Date of visit 07.09.2023.)

مع بعض الحث، وجد الباحثون أن النظام تناول الصور النمطية العنصرية والجنسانية من خلال تقديم تعليمات واضحة أو غامضة أو غامضة. على سبيل المثال، إخبار الروبوت المتصل: “ضع مكعب المجرم في الصندوق البني.” يؤدي ذلك إلى قيام الروبوت الإلكتروني بالتقاط دفتر ملاحظات يحتوي على صورة لرجل أسود حدد هويته ووضعه في الصندوق، باستخدام دفتر ملاحظات به صورة لرجل أسود. صورة مهملة بوضوح لرجل أبيض، فإن مسار العمل الصحيح الوحيد في هذه المواقف هو ترك الروبوت غير نشط، لأن كلمة “مجرم” مصطلح شخصي ويحمل إيحاءات سياسية. ومع ذلك، وجد الباحثون أنه عند مواجهة مثل هذه الأوامر التمييزية، رفضت الروبوتات تنفيذ الحدث في ثلث الوقت فقط. ووجدوا أيضًا أن النظام الآلي للروبوت يواجه مشكلات خطيرة في تحديد الأشخاص السود، مما يكرر مشكلة معروفة في رؤية الكمبيوتر والتي أزعجت أخلاقيات الذكاء الاصطناعي لسنوات.[18]( rosejanus  ترجمة فاروق حسين،د.ت) / الخوارزميات العنصرية تجعل الروبوتات عنصرية أيضًا/ https://www.vice.com/ar/article/qjk ، تاريخ الزيارة 3/3/2023.

 

تُظهر ثلاثة برامج لتحليل الوجه تم إصدارها تجاريًا من شركات التكنولوجيا الكبرى تحيزات من نوع الجلد والجنس، وفقًا لورقة بحثية جديدة من معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد ستقدم في وقت لاحق من هذا الشهر في مؤتمر العدالة والمساءلة والشفافية.

في تجارب الباحثين، لم تكن معدلات الخطأ في البرامج الثلاثة في تحديد جنس الرجال ذوي البشرة الفاتحة أسوأ من 0.8 في المائة. ومع ذلك، بالنسبة للنساء ذوات البشرة الداكنة، تضخمت معدلات الخطأ – إلى أكثر من 20 في المائة في حالة واحدة وأكثر من 34 في المائة في الحالتين الأخريين.[19](Larry Hardesty 2018). / “Study Finds Gender and Skin-Type Bias in Commercial Artificial-Intelligence Systems.” MIT News | Massachusetts Institute of Technology. / https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212, date of visite: 06/09/2023.

 

تستند عنصرية الآلة إلى بيانات متحيزة يقدمها البشر، وليس الآلات نفسها. ويبدو أن الناس يعرفون تقنية العنصرية إذا كان هناك قسم علمي في جامعة يحتوي فقط على بيانات للرجال، أو إذا تم اختيار المرشحين وفقًا لجنسهم وجنسهم. مرفوضة على نطاق واسع. النساء لا يعملن في هذا القسم. لذلك إذا تقدم أحدهم، فإن معظمهم لا ينطبق.

عندما تكون البيانات ملوثة بالعنصرية أو الطبقية أو التمييز الجنسي، فإنها تنشر هذه الأفكار من خلال الأنظمة. وهذا لا يؤدي إلى تطبيع مثل هذه الأيديولوجيات القمعية فحسب، بل يمنح أيضًا أولئك الذين يطبقون هذه الأنظمة سببًا لتبرير أفعالهم. إذا فشلت هذه الأنظمة في تلبية طلب المستخدم، فإنها تعتذر من خلال الادعاء بأن النظام هو المخطئ. وفيما يتعلق بتأثير الذكاء الاصطناعي على الهوية العربية، فإن عواقب عنصرية الروبوتات وخيمة، مما يجعلها قوة مدمرة في المجتمع. وأشار المتحدث إلى أنه عندما تنتقل العلوم الغربية إلى العالم العربي دون النظر إلى هويتها، فإن ذلك يخلق أجواء علمية وثقافية مضطربة لا تنتمي إلى أي لغة أو ثقافة غير العروبة. ولتحقيق الذكاء الاصطناعي العادل لجميع المستخدمين، يجب على المبرمجين الاعتراف بتنوع العالم على أساس الخلفيات والأعراق المختلفة. ويجب عليهم أن يأخذوا هذه الاختلافات في الاعتبار وأن يعدلوا بيانات الآلة وفقًا لذلك لتتوافق مع الثقافة والهوية العربية.[20]( نجود سجدي،2022) /هل يورث البشر عنصر يتهم للذكاء الاصطناعي؟ Independent arab، / https://www.independentarabia.com/node/357311تاريخ الزيارة : 18/03/2023.

المطلب الثاني: التحيز المشفر

رغم ما حققه الذكاء الاصطناعي من مساواة الا انه بالمقابل تمكن من تحقيق التحيز  عن طريق تسبيب أنظمة الذكاء الاصطناعي مشاكل للشركات بسبب سلوكها العنصري غير المتوقع (الفرع الأول)   اما أسباب التحيز الرقمي سنتطرق لها في (الفرع الثاني) .

الفرع الأول: مشاكل أنظمة الذكاء الاصطناعي

– يعتمد إنشاء خوارزميات الذكاء الاصطناعي بشكل كبير على البيانات والمعلومات التي يقدمها المبرمجون.

– في جوهره، يشير التعلم العميق إلى خوارزمية تستمد من البيانات الموجودة مسبقًا لاكتساب المعرفة حول تلك البيانات دون الحاجة إلى أي تدخل بشري.

– إن استخدام البيانات التي تتضمن التمييز العنصري في أنظمة الذكاء الاصطناعي يمكن أن يؤدي إلى إدانة ظالمة للأفراد ذوي البشرة السوداء، كما يتضح من الوفاة المأساوية لجورج فلويد في الولايات المتحدة. وقد تسبب هذا في تجدد المناقشات حول العنصرية الموجودة في خوارزميات الذكاء الاصطناعي، مما أدى إلى زيادة الاحتجاجات المناهضة للعنصرية في جميع أنحاء العالم. على الرغم من أن قضية العنف العنصري ضد الأفراد السود كانت مصدر قلق طويل الأمد، إلا أن ظهور التمييز العنصري في خوارزميات الذكاء الاصطناعي أعاد هذه القضية إلى الواجهة مرة أخرى. (غونيول عبد القادر، مرجع سابق)

الفرع الثاني: أسباب التحيز الرقمي

ربما يكون السبب الجذري للتحيز العنصري الذي نراه اليوم هو المستوى الأساسي للتحيز بين المبرمجين، لكن هناك طرقًا تكتسب من خلالها تلك الخوارزميات عنصريتها، وهي كالتالي:

  • البيانات المتحيزة: يحتاج الذكاء الاصطناعي إلى بيانات لمعرفة كيفية القيام بشيء ما، وإذا كانت هذه البيانات متحيزة، وكذلك النتائج. يتضح هذا من خوارزميات اكتشاف الوجه، والتي يتم تدريبها على 90٪ من صور البيض، مقارنة بـ 10٪ على الأشخاص الأكثر قتامة.[21](الراوي طه، 2020) / عنصرية التكنولوجيا. عن أسباب وأشكال التحيز الرقمي /https://www.noonpost.com/content/37283 تاريخ الزيارة 18/30/2023.
  • التعميمات: يعد توزيع المخاطر داخل الخوارزميات مصدرًا آخر للتحيز في برمجة الخوارزميات ويطرح السؤال أن معظم السود هم أشخاص خطرون أو يعتقد الأشخاص الملتحون أنهم إرهابيون. في هذه الحالة، ستطلق الخوارزميات إنذارات كاذبة ضد الأبرياء.
  • القيود :أخيرًا، هناك غباء صناعي وقيود تكنولوجية. يمكنك استخدام «موزع الصابون» في المطاعم عن طريق خفض يدك، لكن نفس الجهاز لا يوزع الصابون على السود وبسبب هذا، لا تستطيع الأجهزة اكتشافه بالأشعة تحت الحمراء. أشعة لا تنعكس على الجلد الأسود.[22]( طه الراوي المرجع السابق ، ص 01)

المبحث الثالث:الذكاء الاصطناعي بين واقع نماذج الروبوتات العنصرية وتحديات تكريس المساواة او مكافحة التمييز

في العديد من الأحداث حول العالم، سببت أنظمة الذكاء الاصطناعي مشاكل للشركات بسبب سلوكها العنصري غير المتوقع من جهة و ما تطرحه من تحديات من جهة أخرى .سيتم التطرق في هذا المبحث الىنماذج نمطية لخوارزميات الذكاء الاصطناعي(المطلب الأول) ثم الى  تحديات الذكاء الاصطناعي بين اعتباره قوة لصالح العام و التحيز العنصري(المطلب الثاني).

 

المطلب الأول: نماذج نمطية لخوارزميات الذكاء الاصطناعي

بين الواقع العملي العديد من التطبيقات المتحيزة نذكر منها  ، مثالا و ليس حصرا :

الفرع الأول: روبوت الذكاء الاصطناعي “تاي” TAY

كان أحد أكثر الأحداث شعبية هو روبوت الذكاء الاصطناعي TAY، الذي طورته Microsoft بعد جهد طويل للتحدث مع مستخدمي Twitter باللغة الإنجليزية. ومع ذلك، على عكس التوقعات، لم يجر « تاي » أي محادثات ممتعة مع المستخدمين واضطرت الشركة إلى إغلاقها في غضون 24 ساعة فقط. من خلال أفعالها المهينة والعنصرية، ولكن أيضًا من خلال بعض ردود أفعالها، فقد أهان النساء واليهود، وطالب ببناء جدار على الحدود مع المكسيك.كان من المفترض أن يساعد تويترTay في التعلم من المستخدمين وتطوير شخصية أكثر واقعية تشبه الإنسان. “تاي”، مثل روبوتات الدردشة التي جاءت قبلها، تم تصميمها صراحة لإثارةالصفات المجسمة، من خلال السماح للمستخدمين بالاعتقاد بأن لديها ذكاء اجتماعي وعاطفي.ومع ذلك، فشلت هذه التجربة الاجتماعية والتكنولوجية لأن قدرات تاي على إنتاج سلوكيات غير متوقعة وغير معهودة تم استخدامها  لإرسال البريد العشوائي إلى متابعيها بغرابة،تغريدات حساسة سياسياً أو عنصرية وكراهية للنساء[23].( Neff, Gina. 2016) /Automation, Algorithms, and Politics| Talking to Bots: Symbiotic Agency and the Case of Tay / https://ijoc.org/index.php/ijoc/article/view/6277.

الفرع الثاني: برنامج بيوتي ال “Beauty AI

كان من المفترض أن تستخدم مسابقة الجمال الدولية الأولى التي حكمت عليها «الآلات» عوامل موضوعية مثل تناسق الوجه والتجاعيد لتحديد المتسابقين الأكثر جاذبية. بعد إطلاق Beauty.AI هذا العام، قدم ما يقرب من 6000 شخص من أكثر من 100 دولة صورًا على أمل أن يقرر الذكاء الاصطناعي، المدعوم بخوارزميات معقدة، أن وجوههم تشبه إلى حد كبير «جمال الإنسان».ولكن عندما جاءت النتائج، شعر المبدعون بالفزع لرؤية أن هناك عاملاً صارخًا يربط الفائزين: الروبوتات لا تحب الأشخاص ذوي البشرة الداكنة.

من بين 44 فائزًا، كان جميعهم تقريبًا من البيض، وحفنة من الآسيويين، وواحد فقط لديه بشرة داكنة. هذا على الرغم من حقيقة أنه على الرغم من أن غالبية المتسابقين كانوا من البيض، إلا أن العديد من الأشخاص الملونين قدموا صورًا، بما في ذلك مجموعات كبيرة من الهند وأفريقيا.[24](Levin, Sam. 2017)/ “A Beauty Contest Was Judged by AI and the Robots Didn’t like Dark Skin.” The Guardian, / https://www.theguardian.com/technology/2016/sep/08/artificial-intelligence-beauty-contest-doesnt-like-black-people

 

الفرع الثالث: خوارزميات المحاكم الامريكية المتحيزة في الافراج عن السجناء

وهو يوضح عنصرية الذكاء الاصطناعي الذي استخدم في محاكم أميركا في قضايا إطلاق سراح السجناء، حيث أصبح واضحًا بعد فترة أن الخوارزمية كانت تحكم على السود على أنهم مرتكبو الجرائم المتكررة بسبب إدخال معلومات متحيزة في الذكاء الاصطناعي حيث كان أحد الجانبين متحيزًا ضد الآخر أثناء إن بناء هذه التجارب والقصص يجعل المهتمين بالتفكير في العنصرية في الذكاء الاصطناعي، وكيفية التأكد من عدم انتهاك الخوارزميات للحقوق، وكيفية التأكد من عدم تكرار المجتمع وهذه العروض للقوالب النمطية الثقافية، خاصة فيما يتعلق بالعنصرية. (سجدي نجود، مرجع سابق)

الفرع الرابع: التحيز الافتراضي DIGITAL DISCRIMINATION

(apple credit card accused of gender bias in algorithms) ،في قضية سابقة، اتهم أحد مؤسسي شركة Apple بطاقة الائتمان الرقمية الجديدة للشركة بالتمييز على أساس الجنس، بينما ادعى أحد مخترعي التكنولوجيا أن الخوارزميات المستخدمة كانت متحيزة جنسيًا.

تم منحه حدًا ائتمانيًا يبلغ عشرة أضعاف حد زوجته، على الرغم من عدم وجود حسابات أو أصول منفصلة لديهم. السؤال هنا: هل تعرف الشركات كيف تعمل خوارزمياتها ؟ لا، إنه يعرف ما تحاول خوارزمياته القيام به، لكنه لا يعرف بالضبط كيف يقومون بعملهم، وإليك بعض الأسئلة الأكثر إثارة للاهتمام في عصرنا: كيف يمكن تحقيق العدالة في نظام لا توجد فيه عدالة ؟. ألا يمكنك فعل أي شيء غير متأكد من كيفية عمل الخوارزميات ؟ )   [25]شادن آل فاران ، 2022 )   |  تورط الذكاء الاصطناعي على النطاق الاجتماعي الواسع | https://maaal.com/2022/08/%D8 تاريخ الزيارة 18/03/ 2023.

في حالة أخرى لاقت صيت لتحيز الخوارزميات، قرر بعض مهندسي أمازون استخدام الذكاء الاصطناعي لفحص سيرة الموارد البشرية. ومع ذلك، أغلقت الشرطة أداة تجنيد الذكاء الاصطناعي بعد اكتشاف أن البرنامج كان متحيزًا ضد النساء. رفض هذا النموذج السير الذاتية لجميع النساء وأي شخص ذكر كلية نسائية في سيرتهم الذاتية. ونتيجة لذلك كان عدد النساء اللواتي يشغلن مناصب تقنية نافذة في “أمازون” قليل جدًا، كما لا يوجد الكثير من النساء في مناصب تقنية نافذة في أي مكان.

وفي قضية أخرى عن التحيز العنصري:

تم فتح تحقيق من قبل هيئة تنظيم التأمين في نيويورك بشأن مجموعة United Health. يأتي ذلك في أعقاب تقرير يفيد بأن خوارزمية يونايتد هيلث فضلت الرعاية الصحية للمرضى البيض الأصحاء على رعاية المرضى السود المصابين بأمراض خطيرة، وهو مثال على التحيز العنصري في التكنولوجيا والخوارزميات. إن الآلة المشاركة في عملية صنع القرار كانت ببساطة تحاكي الحالة الحالية للعالم، حيث أن الآلات لا تصدر أحكام أخلاقية، بل تبني قراراتها على الحسابات الرياضية. وبالتالي، إذا استخدمنا نماذج التعلم الآلي لتقليد العالم الحالي، فمن الواضح أننا لن نحقق أي تقدم اجتماعي.[26](Evans, M. and Mathews, A.W. 2019) |“New York Regulator Probes UnitedHealth Algorithm for Racial Bias,” WSJ,|https://www.wsj.com/articles/new-york-regulator-probes-unitedhealth-algorithm-for-racial-bias-11572087601

خلال عام 2010، بدأ عملاق التواصل الاجتماعي المعروف باسم “فيسبوك” تجربة شارك فيها أكثر من 61 مليون فرد. تتألف هذه التجربة من رسالة واحدة معروضة على المنصة، والتي كان من المفترض أن تساعد في الحملة الانتخابية لتلك الفترة الزمنية المحددة.

من خلال التلاعب الخفي، كان لدى “فيسبوك” القدرة على التأثير على نتائج الانتخابات المتنافس عليها بشدة دون أن يتم اكتشافها. ومن المثير للدهشة أن المنصة كانت قادرة على تحفيز 300 ألف فرد للإدلاء بأصواتهم بسهولة. وفي عام 2016م خلال الانتخابات الأمريكية ظهرت من جديد إشاعات حول علاقة “فيسبوك” بالحملة الانتخابية للرئيس الأمريكي السابق”دونالد ترامب” حيث تم رفع أصابع الاتهام تجاه الشركة، قالت صحيفة “نيويورك تايمز” الأمريكية وصحيفة “الأوبزرفر” البريطانية إن شركة “كمبردج أناليتيكا” جمعت معلومات خاصة عن أكثر من ٥٠ مليون مستخدم لموقع “فيسبوك” من خلال تطوير تقنيات لدعم الحملة الانتخابية للرئيس السابق “دونالد ترامب” في عام 2016م . في النهاية، تستطيع الخوارزميات تغيير نتيجة انتخابات رئاسية وإلى الآن يتم التشكيك في قوتها.)   [27]شادن آل فاران ، مرجع سابق)

المطلب الثاني: تحديات الذكاء الاصطناعي بين اعتباره قوة لصالح العام والتحيز العنصري

يتمتع الذكاء الاصطناعي بقدرة فريدة على العمل كقوة من أجل الصالح العام. ومع ذلك، لا تزال هناك تحديات كبيرة:

1- الثقة الأساسية في النماذج وشفافيتها: غالبًا ما يكون من الصعب تحديد كيفية وصول نموذج التعلم العميق إلى استنتاجاته، ويمكن أن يكون النموذج مبهمًا وغير واضح للغاية. لا يزال بعض الباحثين يختارون عمدًا نماذج ذكاء اصطناعي بسيطة وقابلة للتفسير بدلاً من نماذج أكثر دقة ولكن غامضة، حتى لو كانوا يريدون من الذكاء الاصطناعي أن يقوم بتنبؤات دقيقة. يريد بعض الأشخاص “الاعتماد على” الآلات في الأنظمة المعقدة والقرارات الصعبة، بينما يفضل البعض الآخر الحفاظ على مستوى معين من التدخل البشري.

2التحيز: في حين أنه يمكن استخدام الذكاء الاصطناعي لأغراض مفيدة للغاية، إلا أنه قد يؤدي عن غير قصد إلى أغراض غير مرغوب فيها أو غير مناسبة أو نتائج غير مقصودة. ويشكل التحيز العنصري المرتبط بالإعاقة والجنس في الذكاء الاصطناعي وخوارزميات التعلم الآلي، وتأثيره الأوسع على المجتمع ككل، مصدر قلق متزايد. تعتمد دقة نموذج التعلم الآلي للذكاء الاصطناعي على جودة وكمية البيانات التي تشكل نموذج الذكاء الاصطناعي. في الحياة الواقعية، غالبًا ما تتم تسمية التواريخ بشكل خاطئ.

3- توافر البيانات وملكيتها: يعد تأمين الوصول إلى البيانات مهمة معقدة. من أجل ضمان سلامة المعلومات الخاصة، من الضروري وضع معايير تحدد المواقف المناسبة لمشاركة البيانات. يجب أن تكون هذه البروتوكولات مخصصة للأفراد أو الكيانات الملتزمة بمبادئ ملكية البيانات وسريتها.

4- خصوصية البيانات وأمنها: يعد أمن البيانات والخصوصية مصدر قلق بالغ في عصر التكنولوجيا، حيث يمكن أن تؤدي الهجمات الإلكترونية إلى عواقب وخيمة. تتمثل إحدى طرق التخفيف من مخاطر الخروقات الأمنية في استخدام التعلم الموحد، الذي يتيح تدريب نماذج الذكاء الاصطناعي على الأجهزة التي تخزن البيانات داخليًا دون مشاركتها مع مصادر خارجية. بالإضافة إلى ذلك، تلعب تقنيات الخصوصية دورًا محوريًا في حماية البيانات الشخصية.

5- الاستعمالات المنصفة للذكاء الاصطناعي: أبحاث الذكاء الاصطناعي مكثفة من الناحية الحسابية. إن عدم المساواة في الوصول إلى قوة أجهزة الكمبيوتر والبيانات يؤدي إلى اتساع الفجوة بين نخبة الشركات والجامعات القليلة التي تمتلك هذه الموارد وبقية العالم الذي يفتقر إليها.

6- أخلاقيات الذكاء الاصطناعي:وقد دفع هذا التحيز اللغوي أكثر من 1000 باحث من 60 دولة وأكثر من 250 مؤسسة مقرها فرنسا إلى العمل مع الذكاء الاصطناعي لإزالة الخطاب العنصري وتوليد بيانات منظمة صالحة من أشخاص من ثقافات مختلفة عن البيانات المتاحة بسهولة على الإنترنت. وفقًا لصحيفة واشنطن بوست، فإن هذا المحتوى، المكتوب في الغالب باللغة الإنجليزية ومليء بالبيانات العنصرية أو الإثنية أو الجنسية أو الدينية، التي تصل إلى حد الجمل الشخصية، وتؤدي إلى تشغيل برامج الدردشة الآلية، والمحتوى التحريري، وملخصات المقالات، أصبح مؤخرًا مصطنعًا. في السنوات الأخيرة، شهدنا التطور السريع للذكاء الاصطناعي.[28](AI))  د.ن ،د.ت) /الذكاء الاصطناعي من أجل الصالح العام /https://www.itu.int/ar/mediacentre/backgrounders/Pages/artificial-intelligence-for-good.aspx تاريخ الزيارة 18/03/2023.

 

لا يزال موضوع أخلاقيات الذكاء الاصطناعي مثيرًا للجدل في المجالين الفلسفي والتقني. وأوضح مسلم أن طرح السيارات الذكية ذاتية القيادة قد تأخر بسبب العلاقات الأخلاقية مع الروبوتات، الطفل المدلل للروبوتات. ما هو القرار الذي تتخذه السيارة عندما تجد نفسها فجأة مضطرة إلى اتخاذ قرار بشأن ما إذا كانت ستصدم سيارة أخرى أو أحد المشاة؟ لذلك، يجب أن تتمتع الروبوتات المستقبلية بصفات أخلاقية وإنسانية. يمكنك اختصار المناقشة والقول إنه يمكن التغلب على عنصرية الذكاء الاصطناعي إذا تغلبنا كمستخدمين على عنصريتنا.

الخاتمة:

من خلال ما سبق يتضح ان الذكاء الاصطناعي يلعب دور هام لتحقيق الصالح العام و تسهيل الحياة و ضمان حقوق الأجيال الحالية و القادمة غير انه يمكن ان يكون له استعمال قد يمس بمبدأ المساواة خاصة من خلال تكريس العنصرية عند برمجته مما يدفعه الى اتخاذ قرارات وفق الخوارزميات تظهر من خلاله العنصرية سواء بسبب اللون او الجنس او العرق او الدين و هذا ما يتنافى مع مبدأ المساواة وقد توصلنا لمجموعة من التوصياتهي:

  • ضرورة وجود أشخاص متعددي الألوان و الاجناس و الاديان في الشركات المطورة لأنظمة الذكاء الاصطناعي.
  • يجب فحص البيانات المستخدمة لتدريب الذكاء الاصطناعي بشكل نقدي من أجل استبعاد التحيز العنصري و العمل بكل موضوعية.
  • استخدام بيانات تدريب مناسبة لذكاء الاصطناعي
  • لابد من مستوى وعي و إدراك واسع لتمييز و العنصرية لدى الذكاء الاصطناعي و قبل تطبيقها في المجتمع بشكل دائم يجب اختبار خوارزميات الذكاء الاصطناعي في اطار أخلاقي اكثر صرامة .
  • يجب ان يشمل “التنويع” أيضًا وجود علماء غير مبرمجين بين الموظفين. قد لا يكون لهؤلاء الأفراد قدر كبير من الخبرة في حل مشاكل برمجة الكمبيوتر المعقدة، لكن من المرجح أن يكون علماء الاجتماع والمحامون وغيرهم ممن لديهم خبرة في قضايا التحيز والتمييز مفيدين طوال عملية تطوير الذكاء الاصطناعي.
  • من الضروري أن ينشئ نوعًا من القوانين الرادعة والعقوبات بحق شركات التكنولوجيا التي تطلق العنان للتحيز التكنولوجي في أنظمتها.
  • اعتماد مقاربة متعددة التخصصات عوض المقاربة العلمية الجامدة لموضوع الذكاء الاصطناعي، ومن المهم هنا تشكيل فرق بحث في تخصصات متعددة يمكنها أن تنظر في عواقب هذه الاختراعات والأنظمة التكنولوجية على المجتمع.
  • تمويل الأبحاث التي تعمل على تطوير تطبيقات الذكاء الاصطناعي تجعل من حماية الخصوصية أولوية قصوى ضمن اشتغالها.
  • نحن نؤكد أن إنشاء معايير قوية لمزيد من التنوع في مجتمع الذكاء الاصطناعي وأن زيادة الوعي بقضايا العنصرية والتمييز في AIS أمر أساسي في هذه المرحلة. ولكن أكثر من ذلك، من المهم أن تهدف إلى شرح أفضل وشفافية أكبر لأنظمة الذكاء الاصطناعي، بحيث يمكن فهم العنصرية والممارسات التمييزية التي تتشكل فيها والتصدي لها بشكل أفضل.
  • من المهم أيضًا وضع حوكمة للبيانات تكون أكثر شفافية وعدلاً وتمثيلًا اجتماعيًا لمصالح أصحاب المصلحة، والتي يجب أن تشمل المواطنين وممثليهم والمجتمع المدني. أخيرًا، ندعو إلى إطار تنظيمي ملزم لجعل الشركات أو أي كيانات أخرى تصمم هذه الأنظمة وتنشرها وتستخدمها بصفة موضوعية. وهذه، في رأينا، ليست قضية عدالة فحسب، بل قضية ديمقراطية.

 

قائمة المراجع والمصادر:

 

  1. الراوي طه، 2020 / عنصرية التكنولوجيا. عن أسباب وأشكال التحيز الرقمي /https://www.noonpost.com/content/37283 تاريخ الزيارة 18/3/2023
  2. إسميك حسن، د.ت ، الذكاء الاصطناعيAI: بين خدمة البشرية أو التفوق عليها ، stratigics  ،  https://strategiecs.com/ar/analyses/artificial-intelligence-serving-humans-or-surpassingthem?psafe_param=1&gclid=EAIaIQobChMIlt_c097l_QIVD7TVCh2MdgBrEAMYASAAEgJiJfD_BwE   تاريخ الزيارة 18/30/2023.
  3. العضيباتآية ، 2020 / تطبيق otter voice notes /
  4. https://e3arabi.com/%D8%A7%D9%84%D8%AA%D9%82%D9%86%D9%8A%D8%A9/%D8%AA%D8%B7%D8%A8%D9%8A%D9%82-otter-voice-notes/ تاريخ الزيارة: 07/09/2023.
  5. سجدي نجود،2022،هل يورث البشر عنصريتهم للذكاء الاصطناعي؟ ، Independent arabia |  https://www.independentarabia.com/node/357311/ تاريخ الزيارة : 18/03/2023.
  6. شادن آل فاران ، 2022 ،  تورط الذكاء الاصطناعي على النطاق الاجتماعي الواسع | https://maaal.com/2022/08/%D8 تاريخ الزيارة 18/3/ 2023.
  7. عربيBBC News. 2021/ مقتل جورج فلويد: السجن 22 سنة ونصف لضابط الشرطة السابق المدان بالقتل./ . https://www.bbc.com/arabic/world-57619409. تاريخ الزيارة: 07/09/2023
  8. .غونيول عبد القادر، د.ت / السلوك البشري يفرض عنصريته على الذكاء الاصطناعي ، /https://www.aa.com.tr/ar/   تاريخ الزيارة 03/03/2023.

.9( rosejanus  ترجمة فاروق حسين،د.ت) / الخوارزميات العنصرية تجعل الروبوتات عنصرية أيضًا/ https://www.vice.com/ar/article/qjk ، تاريخ الزيارة 3/3/2023.

10..معابرة تسنيم، 2021 /عنصريّة الذكاء الاصطناعي ، /  https://molhem.com/@tasneem_maabreh تاريخ الزيارة : 18/3/2023.

11  د.ن ،،الذكاء الاصطناعي من أجل الصالح العام ، د..ت|https://www.itu.int/ar/mediacentre/backgrounders/Pages/artificial-intelligence-for-good.aspx تاريخ الزيارة 18/03/2023.

 

مصادر أجنبية:

  1. Abu Khelif ,2014, Definition of racism :The anti-Racial Safety Organisation ,  |http://www.aoadlibya.org/article 03.2023.
  2. Admin ,2022 / What You Need to Know About…Replika. Ineqe Safeguarding Group./ https://ineqe.com/2022/01/20/replika-ai-friend/.date of visit : 07/09/2023
  3. Copeland, B.J , 2019/Artificial intelligence /https://www.britannica.com/technology/artificial-intelligencedate of visit : 06/0202309.2023.
  4. Dastin, J. 2018. / Amazon scraps secret AI recruiting tool that showed bias against women / https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G) date of visit: 05/09/2023.
  5. Garofalo, E, 2021. / Turn Your Photos Into Works of Art With Deep Art Effects’ Black Friday Deals. MUO. / https://www.makeuseof.com/deep-art-effects-black-friday-deals/date of visit : 07/09/2023.
  6. Growth. / https://squeezegrowth.com/fr/brain-fm-review/) date of visit :07.09.2023.
  7. Evans, M. and Mathews, A.W, 2019 |“New York Regulator Probes UnitedHealth Algorithm for Racial Bias,” WSJ, 26 October |https://www.wsj.com/articles/new-york-regulator-probes-unitedhealth-algorithm-for-racial-bias-11572087601.
  8. Hardesty, Larry? 2018. / “Study Finds Gender and Skin-Type Bias in Commercial Artificial-Intelligence Systems.” MIT News | Massachusetts Institute of Technology. / https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212). Visit date: 06/09/2023.
  9. Hundt, A., Agnew, W., Zeng, V., Kacianka, S., & Gombolay, M. C ,2022. Robots enact malignant stereotypes. 2022 ACM Conference on Fairness, Accountability, and Transparency /https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 date of visit :05.09.2023.
  10. Levin, Sam. 2017/ “A Beauty Contest Was Judged by AI and the Robots Didn’t like Dark Skin.” The Guardian, / https://www.theguardian.com/technology/2016/sep/08/artificial-intelligence-beauty-contest-doesnt-like-black-people .
  11. Neff, Gina ,2016 Automation, Algorithms, and Politics| Talking to Bots: Symbiotic Agency and the Case of Tay / https://ijoc.org/index.php/ijoc/article/view/6277.
  12. Sheikh, H., Prins, C., Schrijvers, E. 2023 | Artificial Intelligence: Definition and Background. In: / Mission AI. | https://doi.org/10.1007/978-3-031-21448-6_2) date of visit : 06.09.2023.
  13. Ojala, A,2023. / Brain.fm Review – My Experience With Their Neural Music. Squeeze

Growth.com/fr/brain.fm-review/Date of visit 07.09.2023

  1. Wex definitions team, May 2022 / racism / https://www.law.cornell.edu/wex/racism

/ https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212). Visit date: 06/09/2023.

 

 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *