بقلم: توم ستانداج
ترجمة : ياسين إدوحموش
تدقيق: محمد علي العوادي
تصميم الصورة: أحمد الوائلي
“ما من روبوتاتٍ قاتلة، إنما على الجهات الرقابية أن يستجيبوا للذكاء الاصطناعي الآن” توم ستانديج.
عندما تذكر سيرة الذكاء الاصطناعي، قد يتبادر إلى الذهن صور ثورية عن روبوتات قاتلة بمجرد ذكر هذا المصطلح، تماماً كما شاهدناها في مجموعة أفلام “The Terminator”، أو قد يتمخض، عن ذكر اسمها، القلقُ بشأن الفقدان المستمر للوظائف لأن الآلة تحل محل الإنسان. غير أنّ الواقع، في الأيام المقبلة لعام 2019، خلوٌ من تلك التصورات: يُمَكِّن الذكاء الاصطناعي الناس من إملاءِ الرسائل النصية لفظاً بدلاً من كتابتها، أو إصدارِ أوامرَ صوتية لتشغيل موسيقى من جهاز مكبّر ذكي على منضدة المطبخ. ومع ذلك، فإن هذا لا يعني أن يتجاهل صانعو السياسات أنشطة الذكاء الاصطناعي. وبدخول الأخير ضمن عدد متزايد من المجالات، فهناك مخاوف منطقية عن إمكانية حدوث نتائج غير مُتعمَّدة. فكيف من المفترض أن تستجيب الجهات الرقابية؟
إن أبرز المخاوف تكمن في أن تشفير البيانات الوفيرة لغرض تنميط أنظمة الذكاء الاصطناعي تنتهك خصوصية الأشخاص. ذلك بأن مراقبة كل ما يفعله الناس عبر الإنترنت، بدءاً من التسوق والتصفح إلى النشر على وسائل التواصل الاجتماعي، تتيح لعمالقة الإنترنت إنشاء ملفات شخصية مفصلة يمكن استخدامها لتوجيه الإعلانات أو التوصية بالأشياء وفقاً للاهتمام. إنَّ أفضل استجابة بهذا الصدد لا تتمثل بتحديد صلاحيات الذكاء الاصطناعي بشكل مباشر، بل بتقنين كيفية تحصيل البيانات الشخصية ومعالجتها وتخزينها.
إن نظام حماية البيانات العام (General Data Protection Regulation)، الذي هو مجموعة من القوانين التي تحمي البيانات والخصوصية الذي قدّمه الاتحاد الأوربي في شهر مايو عام 2018، كان خطوة في المسار الصحيح إذ يفوّض، على الأقل، سُلطة أكبرَ للمواطنين الأوربيين على بياناتهم (الأمر الذي يحث بعض شركات الإنترنت على توسيع نطاق حقوق مماثلة لجميع المستخدمين عالمياً). سيدأبُ الاتحاد الأوربي عام 2019 في إيضاح هذه القوانين وتعزيزها وفق إطار ينظم الخصوصية الإلكترونية. عندئذ سيجادل النقاد بأن مثل هكذا قوانين ستعيق الابتكار وتقوي سيطرة شركات الإنترنت العملاقة التي بإمكانها تحمّل عبء الامتثال للقوانين على نحو لا تستطيعه الشركات الناشئة. ولربما كانوا على حق. لكن يبدو أن النهج الذي تتبعه أوربا أفضل من موقف أمريكا المتفرج. وفي الوقت نفسه، لا تمانع الصين في أن تحصل شركاتها العملاقة على ما تشاء من البيانات الشخصية، شريطة أن تُمنحَ الحكومة إمكانية الوصول.
في الوقت الذي يُشرَع فيه تطبيق أنظمة الذكاء الاصطناعي في مجالات مختلفة كالتنبؤ بحدوث الجرائم وإصدار أحكام السجن، والتوظيف، والتسجيل الائتماني، ينبثق داعٍ آخر للقلق باسم “التحيز الخوارزمي” الذي يشير إلى الأخطاء المتكررة والمكتسبة في أنظمة الحاسوب عندما تتدرّب على بيانات ماضية فتقع في مشكلة تفضيل بعض البيانات على حساب الأخرى على نحو غير عادل. يقول المدافعون عن توظيف الذكاء الاصطناعي في دوائر الموظفين (في النظر، على سبيل المثال، في السير الذاتية للمتقدمين للعمل) أن استعمال آلات محايدة قد تقلل من المحاباة. وعلى سبيل الإنصاف، تحتاج أنظمة الذكاء الاصطناعي إلى تحسين آلية صنعهم للقرارات (وهذا محل نقاش عريض)؛ ويجب أن يساعد الذكاء الاصطناعي البشر على التوصل إلى قرارات أفضل، بدلاً من أن تتخذ القرارات بنفسها دوناً عنهم.
أما الأمر الثالث الذي يثير المخاوف فهو في مجال السيارات ذاتية القيادة. تجري العديد من الشركات اختبار أداء للسيارات بدون سائق وتجرّب خدمات السائق الروبوت “Robo-taxi” على الطرق العامة. إن هذه التقنيات لم تبلغ الكمال، ففي مارس عام 2018 دهست سيارةٌ ذاتية القيادة أحدَ المشاة في تمبي، أريزونا- أول حالة وفاة من نوعها. الاستجابة السليمة لهذا الحادث تكون بمطالبة صانعي هذه المركبات بوضع تقارير سلامة دوريةٍ، وتولي سائقي السلامة أمر مراقبة هذه المركبات أثناء الاختبار، وتثبيت “الصندوق الأسود” لتسجيل البيانات حتى يتسنى للمحققين النظر في حالة حدوث مشكلة ما.
خلاصة القول، إذا وضعنا بعين الاعتبار مدى اتساع المجالات التي يُطبَّق فيها الذكاء الاصطناعيّ – حاله حال الكهرباء والإنترنت، إذ يطبّق تقريباً في أيّ حقل – فقد لا يتناسب تحجيمه في إطار قوانين معينة أو في هيكل أنظمة مخصص يتفق مع إدارة الأغذية والعقاقير الأمريكية. بل يجب أن تتكيَّفَ القوانين القائمة بشأن الخصوصية والتمييز وسلامة المركبات ونحوها على تقنية الذكاء الاصطناعيّ. ماذا عن الروبوتات القاتلة؟ إنها لا تزال خيالاً علمياً، لكنَّ مسألة حظر الأسلحة الروبوت المستقبلية (نوع من الأسلحة التي تمسح المناطق وتشتبك مع الأهداف بصورة مستقلة بعد بَرمَجَتِها على قيود وأوصاف محددة مسبقاً)، على غرار حظر الأسلحة الكيمياوية، في طريقها لتتصدّر قائمة أجندة علم الجغرافيا السياسية. أوقفت أمريكا وروسيا النقاشات الرسمية حول هذه القضية في مؤتمر الأمم المتحدة في أغسطس عام 2018، لكن جهوداً ستسمر لبدأ مفاوضات على شكل معاهدة دولية في عام 2019.
تَحَلَّ بالواقعيّة
فيما يتعلق بالوظائف، فإن معدل فقدان الوظائف المرتبطة بالذكاء الاصطناعي يبقى واحداً من أكثر المواضيع غموضاً ومحطّ جدل في عالم الأعمال. ستشتد في المستقبل حاجة العمال إلى تعلم مهارات جديدة أكثر من الآن، سواء للتعامل مع التغيرات التي ستطال وظائفهم الحالية أو للتعامل مع وظائف جديدة. وكما هو الحال في الثورة الصناعية، سوف تتطلب الأتمتة (مصطلح يُطلق على كل شيء عمل ذاتياً بدون تدخل بشريّ) تغيرات في التعليم كي تتكيف مع التطورات التي تطرأ على طبيعة العمل. حتى الآن، لا يوجد ما يشير على أخذ السياسيين هذا الأمر بجدية. إذ بدلاً من ذلك، يفضل الكثيرون النقاش بشأن تشويه صورة المهاجرين أو العولمة. في عام 2019، هذا هو المجال الذي يحتاج فيه صانعو السياسات إلى البدء بالتفكير ملياً في الذكاء الاصطناعي.
المصدر: هنا