التمييز والتلاعب وتدمير الوظائف… أكبر المخاطر المتعلقة بالذكاء الاصطناعي

 

 

 

 

قلق عالمي قوي يتزايد يومًا تلو الآخر. لذا نظمت المملكة المتحدة في 1 و2 من نوفمبر/تشرين الثاني الجاري، أول قمة عالمية حول أخطار الذكاء الاصطناعي. وهدفت هذه القمة، التي عقدت في بلتشلي بارك، مركز فك التشفير الرمزي لرموز الحرب العالمية الثانية، إلى تحديد ومناقشة المخاطر المحتملة المرتبطة بالذكاء الاصطناعي التوليدي، مثل روبوتات الدردشة والمحادثة.

 

من الهواتف الذكية إلى السيارات، الذكاء الاصطناعي موجود بالفعل في العديد من جوانب حياتنا. في السنوات الأخيرة، تسارع تقدم التطبيقات المرتبطة به وبخاصة مع تطور الذكاء الاصطناعي التوليدي، القادر على إنتاج النصوص والأصوات والصور في بضع ثوان. وتثير إمكانات تلك التقنية الجديدة آمالا هائلة: فهي يمكن أن تحدث ثورة في العديد من المجالات، مثل الطب أو التعليم أو البيئة.

 

لكن تطورها غير المقيد يمكن أن يؤدي أيضا إلى مخاطر جسيمة على البشر، مثل الهجمات على الخصوصية أو حملات التضليل أو حتى إمكانية “تصنيع أسلحة كيميائية أو بيولوجية”، بحسب رئيس الوزراء البريطاني ريشي سوناك.

 

إليكم لمحة عامة عن المخاطر الرئيسية للذكاء الاصطناعي.

 

معلومات مضللة

 

تستخدم أنظمة الذكاء الاصطناعي لتوليد النصوص والأصوات والصور، وهي قادرة على إنتاج محتوى يصعب تمييزه بشكل متزايد عن ذلك الذي ينتجه البشر. يمكن إساءة استخدام هذا المحتوى لخداع المستخدمين، لا سيما من خلال إنشاء مقاطع فيديو مزيفة أو شهادات تبدو أصلية.

 

هذا هو الحال بشكل خاص منذ 7 أكتوبر/تشرين الأول الماضي وبداية الحرب بين إسرائيل وحماس، والتي تميزت بالعديد من المحتويات المضللة الجديدة التي يتم مشاركتها كل يوم على الشبكات الاجتماعية.

 

فقد تم نشر صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، تظهر مشجعي أتلتيكو مدريد وهم يرفعون علما فلسطينيا عملاقا في مدرجات ملعبهم على نطاق واسع على تويتر وفيس بوك. كما تم التلاعب بفيديو لعارضة الأزياء من أصل فلسطيني بيلا حديد لجعلها تقول إنها تدعم إسرائيل.

 

في حرب المعلومات هذه بين إسرائيل وحماس، تستخدم هذه المحتويات للتأثير على الرأي العام والإضرار بسمعة الطرف المعارض.

 

صور “التزييف العميق” هذه التي تم إنشاؤها من الصفر بواسطة الذكاء الاصطناعي، وصلت إلى مستوى غير مسبوق من الواقعية، وتمثل تهديدا للقادة السياسيين. صور لإيمانويل ماكرون في هيئة جامع قمامة، البابا فرانسيس يرتدي سترة بيضاء مضادة للمطر، دونالد ترامب قيد الاعتقال… وغيرها الكثير من الصور المضللة التي تمت مشاركتها على نطاق واسع على الشبكات الاجتماعية، ووصلت إلى ملايين المشاهدات.

 

التلاعب

 

الخداع وممارسة الضغط واستغلال نقاط الضعف… فوفقا للباحثين في هذا المجال، يمثل التلاعب إحدى المشكلات الأخلاقية الرئيسية للذكاء الاصطناعي. ومن بين الأمثلة الأكثر شهرة، يمكننا الاستشهاد بحادثة انتحار رجل بلجيكي أقام علاقة قوية مع روبوت محادثة، قبل بضعة أشهر، وهو ذكاء اصطناعي قادر على الإجابة على أسئلة مستخدمي الإنترنت في الوقت الفعلي. وأيضا ذلك المثال عن اقتراح المساعد الشخصي “أليكسا” لأحد الأطفال بلمس مقبس كهربائي بعملة معدنية.

 

تقول جيادا بيستيلي، عالمة الأخلاق في الشركة الفرنسية الناشئة “هاغينغ فيس” والباحثة في جامعة السوربون، متحدثة عن “خطر شخصنة الروبوتات”، وهو الميل إلى عزو ردود الفعل البشرية إلى الحيوانات والأشياء: “حتى لو تم تحديد روبوت المحادثة بوضوح على أنه وكيل محادثة، يمكن للمستخدمين إسقاط الصفات الإنسانية عليه”. “هذا يرجع إلى حقيقة أن روبوتات المحادثة أصبحت أكثر فاعلية في محاكاة محادثة بشرية.

 

ومن السهل جدا الوقوع في الفخ. وفي بعض الحالات، يصبح المستخدم ضعيفا لدرجة أنه مستعد لفعل أي شيء للحفاظ على العلاقة” مع الروبوت.

 

في فبراير/شباط الماضي، قرر تطبيق ريبليكا، الذي يسمح بإنشاء روبوت دردشة مخصص والدردشة معه، تعليق الميزات الجنسية المثيرة. تعلق الخبيرة بالقول: “تسبب هذا القرار في صدمة عاطفية ونفسية بين بعض المستخدمين، الذين شعروا بفقدان علاقة وثيقة”.

 

“وغالبا ما يعتقد المهندسون الذين يطورون هذه الأدوات أن مستخدميهم قادرون على استخدامها بطريقة آمنة ومسؤولة. لكن ذلك ليس الحال دائما. فالقصر أو كبار السن، على سبيل المثال، قد يكونون عرضة للخطر بشكل خاص”.

 

تدمير الوظائف

 

أثار وصول روبوت الدردشة في حياة الملايين من الأفراد، في خريف عام 2022، مخاوف كثيرة بشأن تحول عالم العمل وتأثيره على التوظيف. على المدى المتوسط، يخشى الخبراء من أن الذكاء الاصطناعي سيسمح بإلغاء العديد من المناصب، مثل الموظفين الإداريين أو المحامين أو الأطباء أو الصحفيين أو المعلمين.

 

وخلصت دراسة أجراها بنك غولدمان ساكس الأمريكي نشرت في مارس/أذار 2023 إلى أن الذكاء الاصطناعي القادر على توليد المحتوى يمكنه أتمتة ربع الوظائف الحالية.

 

وبالنسبة للولايات المتحدة والاتحاد الأوروبي، يقدر البنك خسارة ما يعادل 300 مليون وظيفة بدوام كامل. وستكون الوظائف الإدارية والقانونية هي الأكثر تضررا.

 

“هذه هي الحجج التي يتم طرحها لزيادة الوعي بوصول الذكاء الاصطناعي”، توضح كلمنتين بوزيه، طالبة الدكتوراه في الذكاء الاصطناعي والحقوق الأوروبية في جامعة جان مولان ليون 3. “بالطبع، سوف تختفي بعض الوظائف. ومع ذلك، ستظهر وظائف أخرى جديدة تتعلق بالذكاء الاصطناعي والتكنولوجيا الرقمية بشكل عام، وهي مجالات ستكون ذات أهمية متزايدة في مجتمعاتنا”.

 

بهذا المعنى، تشير دراسة أجرتها منظمة العمل الدولية نشرت في أغسطس/آب الماضي إلى أن معظم الوظائف والصناعات معرضة جزئيا فقط للأتمتة. وتعتقد الوكالة الأممية أن هذه التكنولوجيا “ستجعل من الممكن مرافقة أنشطة معينة بدلا من استبدالها”.

 

التمييز

 

حاليا، تمثل مخاطر التمييز إحدى نقاط الضعف الرئيسية في الذكاء الاصطناعي، وفقا للباحثين. فخوارزميات الذكاء الاصطناعي تشيع الصور النمطية العنصرية أو الجنسية. وخير مثال على ذلك هو خوارزمية التوظيف التي استخدمتها أمازون قبل بضع سنوات.

 

في أكتوبر/تشرين الأول 2018، أدرك المحللون أن برنامجهم الذكي، القائم على نظام تسجيل آلي، يعاقب المتقدمين للوظائف التي أوضحت سيرهم الذاتية أنهم من النساء. فعندما تم إنشاء هذا البرنامج الذكي، تم تدريبه بإدخال بنوك السيرة الذاتية للمرشحين السابقين الذين كانوا بأغلبية ساحقة من الرجال. وحسب منطقه الداخلي، حرم البرنامج المرشحين الذين ذكرت سيرتهم الذاتية، على سبيل المثال، أنهم شاركوا في “دوري رياضة نسائية”.

 

توضح جيادا بيستيلي: “غالبا ما يتم تدريب أنظمة الذكاء الاصطناعي على بيانات لا تمثل، إن وجدت، التنوع الغني للسكان”. “يمكن أن يؤدي هذا إلى تحيزات وتمييز يظهر في ضعف التعرف على الأشخاص الملونين أو أولئك الذين لديهم سمات جسدية غير شائعة. الآلة تعمل فقط على ترسيخ التحيزات الموجودة بالفعل في المجتمع”.

 

انتهاك الخصوصية والبيانات الشخصية

 

انتهاك مباشر آخر لحقوق الإنسان: يمكن للذكاء الاصطناعي أن يعرض خصوصيتنا للخطر. نظرا لأن النماذج اللغوية الكبيرة يتم تدريبها على البيانات التي قد تحتوي على معلومات شخصية، فمن الصعب عمليا ضمان أن هذه النماذج لن تضر بسرية المستخدمين.

 

كما كان الأمر قبل خمس سنوات مع اللائحة الأوروبية بشأن البيانات الشخصية، فقد أراد المجلس الأوروبي والاتحاد الأوروبي أن يكونا أول من يضع قواعد صارمة بشأن الذكاء الاصطناعي. توضح كلمنتين بوزيه بالقول: “تعتبر المؤسسات الأوروبية أن انتهاكات الحقوق الأساسية هي أحد المخاطر الرئيسية الناشئة عن الذكاء الاصطناعي”.

 

“ويحاول الاتحاد الأوروبي إيجاد توازن بين حماية الحقوق الأساسية للمستخدمين الأوروبيين وتسليط الضوء على الابتكار”.

 

سرقة الملكية الفكرية

 

أخيرا، يثير استخدام الذكاء الاصطناعي للبيانات المفتوحة قضايا الملكية الفكرية. فغالبا ما يتم تشغيل أدوات الذكاء الاصطناعي التوليدية بواسطة نماذج مدربة على كميات هائلة من البيانات النصية أو المرئية.

 

توضح جيادا بيستيلي: “نظرا لأن العديد من المقالات الصحفية متاحة مجانا على الإنترنت، فلا شيء يمنع المطور أو مهندس الذكاء الاصطناعي من جمع هذه البيانات واستخدامها لتدريب نموذج ما”، “لذلك يمكننا أن نتساءل عن مسألة الموافقة والأجر العادل لاستخدام الملكية الفكرية المتاحة على الشبكة”.

 

هناك بالفعل حالات دعاوى قضائية ضد الشركات التي تطور الذكاء الاصطناعي لهذه الأنواع من الانتهاكات. في يوليو/تموز الماضي، رفع ثلاثة مؤلفين دعوى قضائية ضد “أوبن آي” لاستخدام مقتطفات من كتبهم لتزويد تشات جي بي تي بالمعلومات.

 

وقبل ذلك ببضعة أشهر، قدم فنانون بشكل جماعي شكوى ضد “ميد جورني” و”ستابل ديفيوجن” و”دريم أب”، والتي يتهمونها باستخدام مليارات الصور المحمية بشكل غير صحيح لتدريب ذكائهم الاصطناعي.

 

 

 

 

 

 

النص الفرنسي: باربرة غابيل | النص العربي: حسين عمارة

 

 

 

 

 

 

 

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى