التقارير

الذكاء الاصطناعي بات يُشكِّل تهديدًا صريحًا لحقوق الإنسان.

قد يشكّل الذكاء الاصطناعي قوة لنشر الخير، فيساعد المجتمعات على التغلب على بعض التحديات البارزة في عصرنا. ولكن، قد تحمل تكنولوجيات الذكاء الاصطناعي آثارًا سلبية؛ إذا ما تم استخدامها من دون إيلاء اعتبار كافٍ لكيفية تأثيرها على حقوق الإنسان.

ويطال الذكاء الاصطناعي حاليًا كلّ ركن من أركان حياتنا الجسدية والعقلية، وحياتنا العاطفية حتّى. وتُستَخدَم أنظمة الذكاء الاصطناعي لتحديد من يحصل على الخدمات العامة، ومن يتمتّع بفرصة الحصول على وظيفة، كما تؤثّر بالطبع على نوع المعلومات التي يراها الناس ويمكنهم مشاركتها عبر الإنترنت.

وتعتمد أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات، تتضمّن معلومات حول الأفراد؛ يتم جمعها ومشاركتها ودمجها وتحليلها بطرق متنوّعة ومبهمة في أغلب الأحيان. وقد تكون البيانات المستخدمة لإثراء أنظمة الذكاء الاصطناعي وتوجيها معيبة أو تمييزية أو قديمة أو لا تمتّ بصلة بالموضوع المطروح. ويولّد تخزين البيانات الطويل الأمد مخاطر معينة، حيث يمكن استغلال البيانات في المستقبل بطرق غير معروفة بعد في يومنا هذا.

ويبقى سد الفجوة الهائلة البارزة على مستوى المساءلة عن كيفية جمع البيانات وتخزينها ومشاركتها واستخدامها، من أكثر القضايا البشرية إلحاحًا، نظرًا إلى النمو السريع والمستمر للذكاء الاصطناعي، وتثير الاستنتاجاتُ والتوقّعات وعمليات الرصد التي تقوم بها أدوات الذكاء الاصطناعي، بما في ذلك البحث عن إيضاحات حول أنماط السلوك البشري، أسئلةً جديةً. وقد تؤدي مجموعات البيانات المتحيزة التي تعتمد عليها أنظمة الذكاء الاصطناعي إلى اتّخاذ قرارات تمييزية، وتبقى الفئات المهمّشة أصلاً أكثر عرضة لهذا النوع من المخاطر، وخطر التمييز المرتبط بالقرارات التي يديرها الذكاء الاصطناعي، وهي قرارات قد تغير أو تحدد أو تلحق الضرر بحياة البشر، هو خطر حقيقي بكل ما للكلمة من معنى؛ لذا من الضروري للغاية أن نجري تقييمًا منهجيًا لتأثير أنظمة الذكاء الاصطناعي وأن نرصدها، من أجل تحديد المخاطر التي تهدّد حقوق الإنسان ومن أجل التخفيف من حدتها.

وننظر في منظمتنا بقلق إلى الوتيرة السريع -التي غالبًا- ما اعتمدتها الدول والشركات على حد سواء، من أجل دمج تطبيقات الذكاء الاصطناعي، ففشلت في بذل العناية الواجبة. وقد برز العديد من الحالات حيث عومل الأشخاص معاملةً غير عادلة بسبب الذكاء الاصطناعي، مثل حرمانهم من تعويضات الضمان الاجتماعي بسبب أدوات الذكاء الاصطناعي المعيبة أو القبض عليهم بسبب خلل في أنظمة التعرف على الوجه. أو استغلال معلوماتهم الشخصية كما حصل مع تطبيق بيغاسوس الإسرائيلي، الذي طال معظم العاملين في القطاع الحقوقي والإنسان والصحفي في العالم، وتسبب في مقتل الصحفي جمال خاشقجي والتجسس على هاتف الرئيس الفرنسي ايمانويل ماكرون، والمئات من الحالات غير المعلنة.

ونحن بدورنا لا يمكننا أن نستمرّ في مُجاراة الذكاء الاصطناعي وفي مواكبة وتيرته الفائقة السريعة، وأن نسمح باستخدامه ضمن حدود معيّنة أو رقابة محدودة أو بدون أي حدود أو رقابة، ومن ثمّ أن نتعامل مع العواقب الحتمية لذلك على حقوق الإنسان بعد وقوعها. ومع ذلك لا نستطيع أن ننكر قدرة الذكاء الاصطناعي على خدمة الناس، لكن قدرة الذكاء الاصطناعي على تغذية انتهاكات حقوق الإنسان على نطاق هائل بدون أي سيطرة على ذلك. لا بدّ لنا من أن نتّخذ الإجراءات اللازمة فورًا من أجل حماية حقوق الإنسان في سياق استخدام الذكاء الاصطناعي، خدمة لصالحنا جميعًا.

المنشورات ذات الصلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

زر الذهاب إلى الأعلى