أخلاقيات الإنسان الآلي ، التي تعرف أحيانًا بـ “roboethics” قصيرة المدى ، تتعلق بالمشكلات الأخلاقية التي تحدث مع الروبوتات ، مثل ما إذا كانت الروبوتات تشكل تهديدًا للبشر على المدى الطويل أو القصير ، وما إذا كانت بعض استخدامات الروبوتات تنطوي على مشكلات (مثل الرعاية الصحية أو مثل “الروبوتات القاتلة” في الحرب ، وكيف يجب أن تصمم الروبوتات مثل التصرف “الأخلاقي” (وهذا القلق الأخير يسمى أيضا أخلاقيات الآلة). أخلاقيات الإنسان الآلي هي مجال ثانوي لأخلاقيات التكنولوجيا ، خاصة تكنولوجيا المعلومات ، ولها روابط وثيقة مع الاهتمامات القانونية والاجتماعية والاقتصادية. بدأ الباحثون من مختلف المجالات في معالجة الأسئلة الأخلاقية حول إنشاء التكنولوجيا الروبوتية وتطبيقها في المجتمعات ، بطريقة ستضمن سلامة الجنس البشري.
في حين أن القضايا قديمة قدمًا مثل كلمة robot ، فقد بدأت المناقشات الأكاديمية الجادة حول العام 2000. تتطلب أخلاقيات الإنسان الآلي التزامًا مشتركًا لخبراء من عدة تخصصات ، يتعين عليهم تعديل القوانين واللوائح للمشكلات الناتجة عن الإنجازات العلمية والتكنولوجية في الروبوتات و الذكاء الاصطناعي. المجالات الرئيسية التي تشمل أخلاقيات الإنسان الآلي هي: علم الروبوتات ، وعلوم الكمبيوتر ، والذكاء الاصطناعي ، والفلسفة ، والأخلاق ، واللاهوت ، والبيولوجيا ، وعلم وظائف الأعضاء ، والعلوم المعرفية ، وعلم الأعصاب ، والقانون ، وعلم الاجتماع ، وعلم النفس ، والتصميم الصناعي.
الموضوعات الأساسية
في غضون بضعة عقود ، أصبحت الروبوتات واحدة من التخصصات العلمية والتكنولوجية الرئيسية ، في مثل هذا التطور السريع الذي في المستقبل القريب نحن البشر سوف يسكن الكوكب ، وسوف نتعاون مع نوع جديد من الآلات الآلية: الروبوتات. وسيشمل ذلك العديد من المشاكل الجديدة والأخلاقية والنفسية والاجتماعية والاقتصادية. “Robusty هي أخلاقيات تطبيقية ، هدفها هو تطوير أدوات ومعارف علمية وثقافية وفنية مشتركة عالمياً ، بغض النظر عن الاختلافات الثقافية والاجتماعية والدينية. هذه الأدوات سوف تشجع وتشجع تطوير الروبوتات نحو رفاهية المجتمع و وعلاوة على ذلك ، وبفضل الروبوتات ، سيكون من الممكن منع استخدام الروبوتات ضد البشر “(Veruggio، 2002). لأول مرة في تاريخها ،
من هذا المنظور ، من الضروري أن تعيد الأوساط العلمية فحص مفهوم الذكاء ، ولم تعد مرتبطة فقط بالآدميين أو الحيوانات ، ولكن أيضا بالأجهزة. وبالمثل ، فإن المفاهيم المعقدة مثل الاستقلالية ، والتعلم ، والضمير ، والإرادة الحرة ، وصنع القرار ، والحرية ، والعاطفة ، وغيرها الكثير لا تحمل نفس المعنى الدلالي أو العملي ، إذا كانت مرتبطة بالبشر أو الحيوانات أو الآلات. في هذا السياق ، يصبح الأمر أكثر طبيعية وضرورية بالنسبة إلى الروبوتات لإشراك العديد من التخصصات الأخرى في تقدمها ، بما في ذلك ضرورة قيام المجتمع العلمي بإعادة فحص مفهوم الذكاء ، ولم يعد مقترنًا إلا بالبشر أو الحيوانات ، ولكن أيضا مع الآلات.
المواقف الرئيسية في roboethics
وقد ظهرت بالفعل خلال الندوة الدولية الأولى حول علم الروبوتات (سان ريمو ، إيطاليا ، 2004) ، ثلاثة مواقف أخلاقية مختلفة في مجتمع الروبوتات ، فيما يتعلق بمسؤولياتهم تجاه نشاطهم العلمي التقني (د. Cerqui ، 2004):
الروبوتية غير مهتمة بالأخلاق: إنه موقف أولئك الذين يعتبرون أبحاثهم أنشطة فنية بحتة ، خالية من المسؤوليات الأخلاقية أو الاجتماعية ؛
الأشخاص الروبوتية المهتمين بالقضايا الأخلاقية على المدى القصير: هو موقف أولئك الذين يعبرون عن اهتماماتهم الأخلاقية ، فيما يتعلق بنشاطهم المهني ، في مصطلحات فورية وبسيطة من الخير والشر ، مشيرين إلى تعريفهم للقيم الثقافية المقبولة والاتفاقيات الاجتماعية ؛
الأشخاص الروبوتية المهتمين بالمشاكل الأخلاقية طويلة المدى: هو موقف أولئك الذين يعبرون عن قلقهم الأخلاقي ، فيما يتعلق بنشاطهم المهني ، من الناحية العالمية وعلى المدى الطويل. على سبيل المثال ، فهي تنظر في مشاكل مثل الفجوة الرقمية بين الشمال والجنوب ، أو بين الأجيال المختلفة.
التخصصات المشاركة في الروبوتات
يتطلب إعداد أخلاقيات الروبوت إشراك خبراء من مختلف التخصصات ، الذين يمكنهم ، من خلال التعاون في المشاريع واللجان واللجان الدولية ، تحديث القوانين واللوائح القائمة على المشكلات الناجمة عن التطورات العلمية والتكنولوجية في الروبوتات. من الممكن أن تنشأ الحاجة إلى إنشاء مناهج دراسية جديدة وتخصصات جديدة قادرة على إدارة مثل هذا الوضع المعقد (كما حدث ، على سبيل المثال ، في حالة الطب الشرعي) أثناء سير العمل. التخصصات الرئيسية في علم الروبوتات ، بالإضافة إلى الروبوتات نفسها: علوم الكمبيوتر ، الذكاء الاصطناعي ، الفلسفة ، اللاهوت ، علم الأحياء ، علم وظائف الأعضاء ، العلوم المعرفية ، العلوم العصبية ، الفقه ، علم الاجتماع ، علم النفس والتصميم الصناعي.
مبادئ
كأخلاق إنسانية ، يجب أن يتوافق علم الروبوت مع المبادئ والقواعد الأساسية المقبولة والمقبولة والمقبولة عالميا في المواثيق الرئيسية لحقوق الإنسان ، ومن بينها:
احترام الكرامة وحقوق الإنسان.
المساواة والعدالة والإنصاف.
فوائد وعيوب كل نشاط.
احترام الاختلافات الثقافية والتعددية.
لا تمييز أو وصم.
الحق في حماية البيانات الشخصية.
الدفاع عن الخصوصية.
سرية.
التضامن والتعاون.
المسؤولية الاجتماعية.
تقاسم المنافع.
المسؤولية عن حماية المحيط الحيوي.
القضايا الأخلاقية العامة المتعلقة بالعلوم والتكنولوجيا
تشارك الروبوتات مع العديد من القطاعات الأخرى للعلوم والتكنولوجيا العديد من المشاكل الأخلاقية المستمدة من الثورة الصناعية الثانية والثالثة ، بما في ذلك:
الاستخدام المزدوج للتكنولوجيا.
تأثير التكنولوجيا على البيئة.
آثار التكنولوجيا على التوزيع العالمي للثروة.
فجوة الشريك التكنولوجي ، الفجوة الرقمية.
الوصول إلى الموارد التكنولوجية.
نزع الإنسانية من البشر مقارنة مع الآلات.
إدمان التكنولوجيا.
مجسمات الآلات.
Roboethics خارطة الطريق
في خارطة طريق Roboics Robotics Research Network Roboethics Road 2006 ، يتم تحديد البعد الأخلاقي على النحو التالي: اعتمادًا على كيفية إدراك قدرات الروبوت ، هناك تقييمات مختلفة للروبوتات في البعد الأخلاقي:
الروبوتات ليست سوى آلات: في هذه الحالة ، Roboethics هو مماثل لأخلاقيات أي علم ميكانيكي آخر
لدى الروبوتات بعدًا أخلاقيًا: يُعتقد أن الروبوتات لها بعد أخلاقي جوهري لأنهما كمنتجات رمزية بشرية ، يمكنهما توسيع وتعزيز قدرة الإنسان على التصرف بطريقة أخلاقية.
الروبوتات هي عوامل أخلاقية: يمكن للعوامل الاصطناعية أن تعمل الآن كمرضى أخلاقيين (أي أشياء للعمل الأخلاقي) أو عوامل أخلاقية. في رأي معظم أخصائيي الحشرات الروبوتية ، ليس من الضروري أن يكون لديهم إرادة حرة من أجل التصرف بطريقة أخلاقية. هنا ينصب الاهتمام على العمل وليس على قرار التصرف.
الروبوتات هي نوع جديد: وفقا لهذا الرأي ، فإن الروبوتات لن يكون لديها وعي فقط ، ولكنها ستتجاوز الأبعاد البشرية من حيث الأخلاق والذكاء.
توقعات EURON
وفقا لتوقعات EURON ، سيتم تطوير الروبوتات واستخدامها في المستقبل القريب في المناطق التالية ::
إنتاج الروبوتات البشرية: إذن إنتاج روبوت أو androids من ذكاء يشبه الإنسان والقدرة العاطفية. تماشياً مع ما يسمى بإعلان Fukuoka World Robot لعام 2004 ، يصدر EURON ثلاث نقاط برنامجية:
سوف تتعايش روبوتات الجيل التالي كشركاء مع البشر.
سوف يدعم الجيل القادم من الروبوتات الناس جسديًا وذهنيًا.
سوف يساهم الجيل القادم من الروبوتات في تحقيق مجتمع آمن وسلمي.
مصانع الإنتاج الحديثة في المصانع ولكن أيضا في الشركات الصغيرة
روبوتات الخدمة المتكيفة والمنازل الذكية. من ناحية ، هذه هي روبوتات خدمة الروبوت ، ومن ناحية أخرى ، فضاءات معيشية محوسبة بالكامل ، وتحكم بالاستشعار وشبكة. وكمثال توضيحي ، تتم الإشارة إلى ثلاجة الطلب الذاتي ، والتي ، بمجرد أن تنخفض المخزونات ، تزود تلقائيًا بالتجديد للتاجر عبر الشبكة.
روبوتات الشبكة: هذه هي بشكل أساسي تطورات الذكاء الاصطناعي على الإنترنت ، حيث بدأت بالفعل في ملاحظة محركات البحث.
الروبوتات الجاهزة: لقد تم إحراز تقدم كبير هنا ، خاصة في السفر عبر الفضاء. ولكن أيضا في التعدين والتخزين والزراعة في المستقبل القريب يمكن توقع المزيد من التطورات.
الرعاية الصحية وجودة الحياة: في السنوات الأخيرة ، كان الروبوت والطب الجراحة غير ملاحظين نسبيا. تمت الموافقة على إجراءات التشخيص بمساعدة الكمبيوتر ، والروبوتات العلاجية والروبوتات الجراحية في أوروبا منذ عام 2000.
الروبوتات العسكرية: أنظمة الدفاع المتكاملة ، المركبات ذاتية الطيران والطائرات ، والذخيرة الذكية.
التعليم الترفيهي: بالإضافة إلى الدروس ، فإن ألعاب الأطفال وصناعة الترفيه هنا تعالج بالتأكيد صناعة الجنس.
لكن في العامين الماضيين ، كان هناك انتقاد متنام للرأي المتفائل جداً لدور الروبوتات في المجتمع في المستقبل. هناك خطر متزايد من أن الناس سوف تكون أقل وأقل علاقة للحياة لأن القطع الأثرية يمكن أن ينقل فقط وهم الحياة. تعتبر آثار التفاعل المستمر مع كائنات زائفة – هوسية على نفسية البشر على الأقل مشكلة محتملة. ويمكن الاطلاع على نقد كبير لاستخدام الروبوتات في المجال الاجتماعي والعسكري ، قدم في المقام الأول من قبل رائد الكمبيوتر جوزيف Weizenbaum ، في الفيلم الوثائقي Plug & Pray.
وبالتالي ، فإن التحديات الأخلاقية للسنوات القادمة لن تكون “حقوق الإنسان الآلي” ، ولكن التعامل مع الواقع القادم للمجتمع المسكون.
الروبوتات والقانون
بالتوازي مع الاحتلال مع الروبوتات من منظور أخلاقي ، يتطور النظر الفقهي للقضايا المحددة في استخدام الروبوتات. ينصب التركيز الرئيسي على المسؤولية المدنية والجنائية بالإضافة إلى التحول في تخصيص المسئولية الذي تتطلبه زيادة الاستقلالية ، على سبيل المثال في مجال الروبوتات و AAL. مع استخدام الروبوتات للقيام بمهام الدولة في المناطق الحساسة للحقوق الأساسية ، على سبيل المثال في السجون. بالإضافة إلى ذلك ، هناك أيضا قضايا محددة في القانون العام ، على سبيل المثال في مجال حماية البيانات ، والتي تتجاوز متطلبات سلامة المنتجات و معايير القبول. سيواجه استخدام الروبوتات المجتمع في المستقبل مع مجموعة متنوعة من المشاكل القانونية التي لم يتم حلها من قبل. على الأرجح ، يتم إجراء هذه المناقشة في سياق السيارات ذاتية القيادة ، التي قد تضطر إلى اتخاذ قرار حول الحياة والموت قد يكون أيضا. حتى الآن ، هناك عدد قليل جدا من المحامين الذين يتعاملون مع موضوع “القانون الروبوتي” وتقديم المشورة في هذا المجال.
التطورات الحالية
ناقش العديد من الهيئات الروبوتات منذ 2016/17 ، مثل IEEE ، والبرلمان الأوروبي ، والرابطة الأوروبية للروبوتات (euRobotics) ومبادرات مثل “Robotics Responsible”.
التاريخ والأحداث
منذ العصور القديمة ، نوقشت مناقشة الأخلاق فيما يتعلق بمعاملة الأشياء غير البشرية وحتى الأشياء غير الحية و “روحانيتها” المحتملة. مع تطوير الآلات والروبوتات في نهاية المطاف ، تم تطبيق هذه الفلسفة أيضا على الروبوتات. أول منشور يتناول بشكل مباشر وتعيين الأساس لأخلاقيات الإنسان الآلي كان Runaround (قصة) ، قصة خيال علمي قصيرة كتبها إسحاق أسيموف في عام 1942 والتي تضمنت قوانينه الثلاثة المعروفة المعروفة باسم Robotics. تم تغيير هذه القوانين الثلاثة باستمرار من قبل Asimov ، وأضيف في نهاية المطاف قانون رابع ، أو zeroth ، لتسبق الثلاثة الأولى. في سياق أعماله الخيال العلمي. ربما صاغ جيانماركو Veruggio على المدى القصير “roboethics”.
كان الحدث الهام الذي أثار اهتمام الروبوتات هو الندوة الدولية الأولى حول Roboethics في عام 2004 من خلال الجهد التعاوني لـ Scuola di Robotica ، ومعمل الفنون في Scuola Superiore Sant’Anna ، و Pisa ، والمعهد اللاهوتي في Pontificia Accademia della Santa Croce ، روما. “بعد يومين من النقاش المكثف ، حددت عالمة الأنثروبولوجيا دانيلا سيركي ثلاثة مواقف أخلاقية رئيسية خرجت من يومين من النقاش المكثف:
أولئك الذين لا يهتمون بالأخلاق. إنهم يعتبرون أن أفعالهم تقنية بحتة ، ولا يعتقدون أنهم يتحملون مسؤولية اجتماعية أو أخلاقية في عملهم.
أولئك الذين يرغبون في الأسئلة الأخلاقية على المدى القصير. وفقا لهذا التعريف ، يتم التعبير عن الأسئلة من حيث “جيد” أو “سيئة” ، وتشير إلى بعض القيم الثقافية. على سبيل المثال ، يشعرون أن الروبوتات يجب أن تلتزم بالتقاليد الاجتماعية. وسيشمل ذلك “احترام” ومساعدة البشر في مجالات متنوعة مثل تنفيذ القوانين أو مساعدة كبار السن. (مثل هذه الاعتبارات مهمة ، لكن علينا أن نتذكر أن القيم المستخدمة في تعريف “السيئ” و “الجيد” هي نسبية. إنها القيم المعاصرة للبلدان الصناعية).
أولئك الذين يفكرون من حيث الأسئلة الأخلاقية طويلة المدى ، على سبيل المثال ، حول “الفجوة الرقمية” بين الجنوب والشمال ، أو الشباب وكبار السن. فهم يدركون الفجوة بين الدول الصناعية والفقيرة ، ويتساءلون ما إذا كان على الأول أن يغير طريقة تطوير الروبوتات ليصبح أكثر فائدة للجنوب. إنهم لا يصوغون السؤال بصراحة عما ، ولكن يمكننا اعتباره ضمنيًا “.
هذه بعض الأحداث والمشاريع المهمة في أخلاقيات الإنسان الآلي. يتم الإعلان عن المزيد من الأحداث في هذا المجال من قبل مجموعة مواضيع euRobotics ELS ، وعن طريق RoboHub:
1942 ، قصة اسيموف القصيرة “Runaround” تنص صراحة على قوانينه الثلاثة لأول مرة. يتم إعادة استخدام هذه “القوانين” لأعمال لاحقة من الخيال العلمي المرتبط بالرجل من قبل Asimov.
2004 ، الندوة الدولية الأولى حول علم الروبوتات ، 30-31 يناير 2004 ، فيلا نوبل ، سان ريمو ، إيطاليا ، نظمتها كلية للروبوتات ، حيث تم استخدام كلمة Roboethics رسميا لأول مرة.
2004 ، أنشأ IEEE-RAS لجنة فنية حول Roboethics.
2004 ، إعلان Fukuoka World Robot ، الصادر في 25 فبراير 2004 من Fukuoka ، اليابان.
2005 ، ICRA05 (المؤتمر الدولي حول الروبوتات والأتمتة) ، برشلونة: نظمت IEEE RAS TC في Roboethics ورشة عمل حول Roboethics.
2005-2006 ، EC Euron Roboethics Atelier (جنوا ، إيطاليا ، فبراير / مارس 2006). شمل مشروع يورون ، الذي تم تنسيقه من قبل مدرسة الروبوتات ، عددًا كبيرًا من الروبوتيين وعلماء العلوم الإنسانية الذين أنتجوا أول خريطة طريق لـ Roboethics.
2006 ، BioRob2006 (مؤتمر IEEE / RAS-EMBS الدولي الأول حول الروبوتات الطبية الحيوية والميكترونيكس الحيوية) ، بيزا ، إيطاليا ، 20 فبراير 2006: ندوة مصغرة حول Roboethics.
2006 ، ورشة العمل الدولية “أخلاقيات التفاعل البشري مع الأنظمة الروبوتية ، Bionic ، و AI: المفاهيم والسياسات” ، نابولي ، 17-18 أكتوبر 2006. تم دعم ورشة العمل من قبل المشروع الأوروبي ETHICBOTS.
2007 ICRA07 (مؤتمر دولي حول الروبوتات والأتمتة) ، روما: نظّمت IEEE RAS TC في Roboethics ورشة عمل حول Roboethics.
2007 ICAIL’07 ، المؤتمر الدولي عن الذكاء الاصطناعي والقانون ، جامعة ستانفورد ، بالو ألتو ، الولايات المتحدة الأمريكية ، 4-8 يونيو.
2007 المؤتمر الأوروبي الدولي حول الحوسبة والفلسفة E-CAP ’07 ، جامعة Twente ، هولندا ، 21-23 يونيو 2007. المسار “Roboethics”.
2007 أخلاقيات الكمبيوتر التحقيق الفلسفي CEPE ’07 ، جامعة سان دييغو ، الولايات المتحدة الأمريكية ، 12-14 يوليو 2007. موضوع “Roboethics”.
2008 المؤتمر الدولي لنظم المعلومات: علم جديد، الخميس 20 فبراير 2008، Via della Lungara 10 – ROME – إيطاليا
2009 ICRA09 (المؤتمر الدولي حول الروبوتات والأتمتة) ، كوبي ، اليابان: نظمت IEEE RAS TC في Roboethics ورشة عمل حول Roboethics.
2012 We Robot 2012، University of Miami، FL، USA
2013 ورشة حول أخلاقيات الإنسان الآلي ، جامعة شيفيلد ، فبراير 2013
2013 We Robot 2013 – Getting Down to Business، Stanford University
2014 We Robot 2014 – Risk and Opportunities، University of Miami، FL، USA
2016 اعتبارات أخلاقية ومعنوية في غير البشرية ، ندوة ستانفورد الربيع ، جمعية AAAI للنهوض الذكاء الاصطناعي
2017 في 25 أكتوبر 2017 في قمة الاستثمار المستقبلي في الرياض ، تم منح روبوت يدعى صوفيا ويشار إليه بضمائر نسائية الجنسية السعودية ، ليصبح أول روبوت يحمل الجنسية. وقد أثار هذا الجدل ، حيث لم يكن من الواضح ما إذا كان هذا يعني ضمنا أن صوفيا يمكنها التصويت أو الزواج ، أو ما إذا كان إغلاق النظام المتعمد يمكن اعتباره جريمة قتل ؛ كذلك ، كان مثيرا للجدل نظرا لعدم وجود حقوق للمرأة السعودية.
في الثقافة الشعبية
لم يؤد استخدام علم الروبوتات (Roboethics) كموضوع علمي أو فلسفي إلى التأثير الثقافي القوي ، ولكنه موضوع شائع في أدب الخيال العلمي والأفلام. واحد من أكثر الأفلام شعبية التي تصور إساءة الاستخدام المحتملة للتكنولوجيا الروبوتية ومنظمة العفو الدولية هو The Matrix ، الذي يصور مستقبلًا حيث أدى افتقار الروبوتات إلى تدمير الجنس البشري. فيلم رسوم متحركة مبني على The Matrix ، Animatrix ، ركز بشكل كبير على القضايا الأخلاقية المحتملة بين البشر والروبوتات. سميت العديد من السراويل المتحركة Animatrix أيضا بعد قصص اسحاق Asimov في قصص خيالية.
على الرغم من أنه ليس جزءًا من الروبوتات في حد ذاتها ، فإن السلوك الأخلاقي للروبوتات نفسها كان أيضًا مشكلة في الانضمام إلى علم الروبوتات في الثقافة الشعبية. وتركز سلسلة Terminator على الروبوتات التي يديرها برنامج الذكاء الاصطناعي غير المنضبط مع عدم وجود ضبط النفس على إنهاء أعدائها. هذه السلسلة أيضًا لها نفس المخطط المستقبلي مثل سلسلة Matrix ، حيث سيطرت الروبوتات. إن أشهر حالات الروبوتات أو أجهزة الكمبيوتر التي لا تمتلك أخلاقيات مبرمجة هي HAL 9000 في سلسلة Space Odyssey ، حيث يقتل HAL (وهو كمبيوتر له قدرات متقدمة في الذكاء الاصطناعي يراقب ويساعد البشر في محطة فضائية) جميع البشر على متن السفينة لضمان نجاح المهمة المعينة بعد تهديد حياته الخاصة.