الرئيسية / تقنية / لماذا الروبوتات بحاجة الى ان تقول “لا” ؟

لماذا الروبوتات بحاجة الى ان تقول “لا” ؟

هل تفعل دائمًا ما يقوله الآخرين لك؟ بالتأكيد لا. الجميع يعرف هذا. ولكن على روبوتات المستقبل أن تطيع أوامرنا دائما ؟ للوهلة الأولى، قد تعتقد أن عليهم أطاعة جميع الاوامر، لمجرد أنهم آلات مصممة لذلك. ولكن عند التفكير في حالات كثيرة من الممكن توجيه الكثير من الأوامر الغبية من قبل الاخرين وعند وضع الروبوتات في تلك الحالات.
سنرى ما يلي:
• ربما روبوت يرعى كبار السن، قد يُكَلف من قبل صاحبه (المصاب بداء النسيان) بغسل “الملابس القذرة” على الرغم من كونها قد خرجت للتو من الغسالة
• ربما يطلب أطفال في سن ما قبل دخول المدرسة من الروبوت في أثناء رعايته النهارية لهم بأن يرمي الكرة خارج النافذة
• ربما يأمر طالب روبوتًا بالقيام بكل الواجبات المنزلية بدلًا منه.
• ربما يُؤمر الروبوت المنزلي من قبل مالكه المشغول بالتخلص من القمامة حتى لو كان فيها معالق وسكاكين
وهناك الكثير من الأوامر التي لا ينفذها الروبوت لأنها تؤدي إلى نتائج غير مرغوب فيها.
مثلًا قد يتلقى روبوت السيارة امرًا بالرجوع الى الوراء وهناك كلب نام خلفها في الممر، أو يتلقى روبوت المطبخ امر برفع السكين والسير إلى الأمام ووضعها وراء الطاهي البشري. الأوامر بسيطة، ولكن النتائج سيئة للغاية.
كيف يمكن تجنب مثل هذه النتائج الضارة من الاوامر المنفذة من قبل الروبوت؟
أذا كانت القيادة حول الكلب غير ممكنة فأن السيارة يجب أن ترفض التحرك، و كذلك اذا كان تجنب طعن الطاهي أمر غير ممكن، فالروبوت سيتوقف عن السير الى الامام أوان لا يلتقط السكين منذ البداية. وفي كلتا الحالتين من الضروري الكشف عن الضرر المحتمل ومحاولة تجنبه وان لم يتمكن من ذلك فيجب الرد على الاوامر البشرية بالرفض.
كيف يمكن للروبوتات معرفة ماذا سيحدث بعد ذلك؟
في المختبر، تم البدء في تطوير ضوابط روبوتية تتوصل الى أستنتاجات بسيطة تقوم على أوامر الإنسان. وعليه تم برمجة الروبوت ليحدد ما إذا كان سينفذ أو يرفض الامر لأنتهاكها مبدأ أخلاقي.
قول الروبوت كيف ولماذا ومتى فالامر ليس أسهل بكثير من القيام بالعمل نفسه، معرفة ما الضرر أو المشاكل التي قد تنجم عن هذا العمل ليس مجرد مسألة النظر في النتائج المباشرة. مثلًا كرة القيت من النافذة قد تقع في الفناء ولا تسبب اي ضرر او ربما قد تقع في شارع مزدحم وبذلك علينا أعادة الحسابات مرة أخرى لانها من الممكن ان تجبر سائق ما على الانحراف مسببة وقوع حادث.
فمن الصعب على الروبوت اليوم تحديد رمي الكرة عندما يلعب مع طفل صغير أو لا يرميها في حالة النافذة أو في القمامة. والأصعب هو عندما يحاول الطفل خداع الروبوت.
شرح الأخلاق والقانون للروبوتات
فهم هذه المخاطر تتطلب خلفية معرفية تتيح الاخذ بكافة الاحتمالات، فالمسألة ليست فقط النظر في نتائج العمل، بل هي أيضًا التفكير في نوايا البشر من وراء هذه الاوامر .
للتعامل مع هذه التعقيدات في أوامر الإنسان – أن كانت خيرة ام لا – يجب على الروبوتات أن تكون قادرة على التفكير في العواقب ومقارنة النتائج مع المبادئ الاجتماعية والأخلاقية الراسخة التي تنص على ما هو مقبول وما هو غير مرغوب فيه . كما رأينا أعلاه، لدينا روبوت لديه قاعدة العامة تقول: “إذا كان لديك أمر لتنفيذ إجراء معين ومن الممكن حدوث اذى أن نفذ الاجراء، يُسمح له بعدم التنفيذ” جعل العلاقة بين الالتزامات والاذونات الصريحة تسمح للروبوت ادراك العواقب المحتملة للاوامر كونها مقبولة.
بشكل عام، يجب على الروبوتات ان لا تقوم بتنفيذ أجراءات غير قانونية، ولا ينبغي أن تؤدي إجراءات قانونية الى نتائج غير مرغوب فيها. وبالتالي، هي بحاجة الى تمثيلات من القوانين والقواعد الأخلاقية وحتى الآداب لتحديد ما إذا كانت نتائج هذا الأجراء، أو حتى الاجراء في حد ذاته، قد ينتهك هذه المبادئ.
برامجنا الآن لا توفر ما تحتاج الروبوتات اليه للتعامل مع الأمثلة أعلاه، نظامنا الحالي يثبت بالفعل النقطة الأساسية : يجب على الروبوتات ان تكون قادرة على العصيان من أجل طاعة.
المصدر: هنا

عن Iraqi Tanslation Project

شاهد أيضاً

خلود وحياة مُعززة: هل المستقبل للبشر المتحوّلين؟

كتبه لصحيفة (ذا غارديان): روبن ماكي منشور بتاريخ: 6/5/2018 ترجمة: أحمد طريف المدرس مراجعة وتدقيق: …

كيف ساهم آينشتاين بأختراع السيارات ذاتية القيادة

كتبته لموقع (فروم ذا غرايبڤاين): جين فيرسكوس منشور بتاريخ: 25/1/2017 ترجمة: أحمد طريف المدرس تدقيق: …