أخلاقيات الذكاء الاصطناعي هو جزء من أخلاقيات التكنولوجيا الخاصة بالرجال الآليين والكائنات الذكية الأخرى الاصطناعية. وينقسم عادة إلى أخلاقيات الروبوت ، وهو اهتمام بالسلوك الأخلاقي للبشر ، حيث يقومون بتصميم وبناء واستخدام ومعالجة الكائنات الذكية صناعيا ، وأخلاقيات الآلة ، التي تهتم بالسلوك الأخلاقي للعوامل الأخلاقية الاصطناعية (AMAs).
أخلاقيات الإنسان الآلي
يشير مصطلح “أخلاقيات الإنسان الآلي” (وأحيانًا “علم الروبوتات”) إلى الأخلاق في كيفية تصميم البشر وبناءها واستخدامها ومعالجتها والروبوتات وغيرها من الكائنات الذكية بشكل اصطناعي. فهي تأخذ بعين الاعتبار كيف يمكن استخدام الكائنات الذكية بشكل اصطناعي لإيذاء البشر وكيف يمكن استخدامها لإفادة البشر.
حقوق الانسان
“حقوق الإنسان الآلي” هي مفهوم أن الناس يجب أن يكون لديهم التزامات أخلاقية تجاه أجهزتهم ، تشبه حقوق الإنسان أو حقوق الحيوان. لقد تم اقتراح أن حقوق الإنسان الآلي ، مثل الحق في الوجود وأداء مهمته الخاصة ، يمكن ربطها بواجب الروبوت لخدمة الإنسان ، من خلال المقارنة مع ربط حقوق الإنسان بالواجبات الإنسانية أمام المجتمع. ويمكن أن يشمل ذلك الحق في الحياة والحرية ، وحرية الفكر والتعبير والمساواة أمام القانون. تم النظر في القضية من قبل معهد المستقبل ومن قبل وزارة التجارة والصناعة في المملكة المتحدة.
الخبراء لا يوافقون على ما إذا كانت هناك حاجة إلى قوانين محددة ومفصلة قريبا أو بأمان في المستقبل البعيد. أفاد غلين ماكجي أن الروبوتات البشرية على نحو كاف قد تظهر بحلول عام 2020. يحدد راي كورزويل التاريخ في عام 2029. وافترض مجموعة أخرى من العلماء الذين اجتمعوا في عام 2007 أنه كان على الأقل 50 عامًا أن يمروا قبل وجود أي نظام متقدم بشكل كافٍ.
تتصور قواعد مسابقة جائزة لويبنر لعام 2003 إمكانية امتلاك الروبوتات لحقوقه الخاصة:
61. إذا حصلت ، في أي سنة معينة ، على مصدر مفتوح متاح للجمهور ، دخلت جامعة سوري أو مركز كامبردج الميدالية الفضية أو الميدالية الذهبية ، ثم يتم منح الميدالية وجائزة النقد للهيئة المسؤولة عن تطوير هذا الدخول. إذا لم يكن بالإمكان تحديد مثل هذه الهيئة ، أو إذا كان هناك خلاف بين اثنين أو أكثر من أصحاب المطالبات ، فسوف يتم الاحتفاظ بالميدالية وجائزة النقد كأمانة حتى يحين الوقت الذي يحق للدخول فيه قانونًا ، إما في الولايات المتحدة الأمريكية أو في مكان المسابقة ، والجائزة النقدية والميدالية الذهبية في حد ذاتها.
في أكتوبر / تشرين الأول 2017 ، مُنِح نظام Android Sophia الجنسية في المملكة العربية السعودية ، على الرغم من أن بعض المراقبين وجدوا أن هذا الأمر أكثر من مجرد نشاط دعائي أكثر من كونه اعترافًا قانونيًا ذي معنى.
التهديد لكرامة الإنسان
جادل جوزيف Weizenbaum في عام 1976 أنه لا ينبغي استخدام تكنولوجيا الذكاء الاصطناعي لتحل محل الناس في المواقف التي تتطلب الاحترام والرعاية ، مثل أي من هذه:
ممثل خدمة العملاء (تستخدم تكنولوجيا AI اليوم بالفعل لأنظمة الاستجابة الصوتية التفاعلية القائمة على الهاتف)
معالج (كما اقترح كينيث كولبي في السبعينيات)
ممرضة لكبار السن (كما ذكرت باميلا مكوردوك في كتابها “الجيل الخامس”)
جندي
حكم
ضابط شرطة
ويوضح Weizenbaum أننا نحتاج إلى مشاعر تعاطف حقيقية من أشخاص في هذه المواقف. إذا قامت الآلات باستبدالها ، فسوف نجد أنفسنا مغتربين ، ومخفضين القيمة ومحبطين. الذكاء الاصطناعي ، إذا استخدم بهذه الطريقة ، يمثل تهديدًا لكرامة الإنسان. يجادل Weizenbaum بأن حقيقة كوننا نستمتع بإمكانية وجود آلات في هذه المواقف يشير إلى أننا قد عانينا من “ضمور في الروح البشرية التي تأتي من التفكير في أنفسنا كأجهزة كمبيوتر”.
تعارض باميلا ماكوردوك ، متحدثة من أجل النساء والأقليات ، “أفضل أن أغتنم فرصي في استخدام حواسيب محايدة” ، مشيرًا إلى أن هناك ظروفًا نفضل فيها وجود قضاة ورجال شرطة لا يتمتعون بأي برنامج شخصي على الإطلاق. يعترض مؤسس منظمة العفو الدولية جون مكارثي على نبرة الأخلاقيات في نقد فايزنباوم. وكتب يقول: “عندما يكون الأخلاق أمرًا شرسًا وغامضًا ، فإنه يدعو إلى الإساءة الاستبدادية”.
كتب بيل هيبارد أن “كرامة الإنسان تتطلب منا أن نسعى جاهدين لإزالة جهلنا بطبيعة الوجود ، وأن منظمة العفو الدولية ضرورية لهذا الكفاح.”
الشفافية والمصدر المفتوح
يقول بيل هيبارد إنه بما أن الذكاء الاصطناعي سيكون له تأثير عميق على البشرية ، فإن مطوري منظمة العفو الدولية هم ممثلون عن البشرية في المستقبل ، وبالتالي فإن عليهم التزامًا أخلاقيًا بالشفافية في جهودهم. أنشأ بن Goertzel وديفيد هارت OpenCog كإطار مفتوح المصدر لتطوير منظمة العفو الدولية. OpenAI هي شركة أبحاث غير ربحية لمنظمة العفو الدولية أنشأها Elon Musk و Sam Altman وآخرين لتطوير الذكاء الاصطناعي المفتوح المصدر الذي يفيد البشرية. هناك العديد من التطورات الأخرى لمنظمة العفو الدولية مفتوحة المصدر.
تسليح الذكاء الاصطناعي
شكك بعض الخبراء والأكاديميين في استخدام الروبوتات للقتال العسكري ، خاصة عندما يتم منح هذه الروبوتات درجة معينة من الوظائف المستقلة. قامت البحرية الأمريكية بتمويل تقرير يشير إلى أنه كلما أصبحت الروبوتات العسكرية أكثر تعقيدًا ، يجب أن يكون هناك اهتمام أكبر بالآثار المترتبة على قدرتها على اتخاذ قرارات مستقلة. يوضح أحد الباحثين أن الروبوتات ذاتية الحكم قد تكون أكثر إنسانية ، حيث يمكنها اتخاذ القرارات بشكل أكثر فعالية.
خلال هذا العقد الأخير ، كان هناك بحث مكثف في السلطة الذاتية مع القدرة على التعلم باستخدام المسؤوليات الأخلاقية المخصصة. “يمكن استخدام النتائج عند تصميم روبوتات عسكرية مستقبلية ، للتحكم في الميول غير المرغوب فيها لإسناد المسؤولية إلى الروبوتات.” من وجهة نظر تبعية ، هناك فرصة أن الروبوتات ستطور القدرة على اتخاذ قرارات منطقية خاصة بهم حول من يقتل ، ولهذا السبب يجب أن يكون هناك إطار أخلاقي محدد لا يمكن لمنظمة العفو الدولية تجاوزه.
كان هناك غضب عارم في الآونة الأخيرة فيما يتعلق بهندسة أسلحة الذكاء الاصطناعي التي تضمنت أفكارًا عن استيلاء الروبوت على البشرية. تشكل أسلحة الذكاء الاصطناعي نوعًا من الخطر يختلف عن خطر الأسلحة التي يسيطر عليها الإنسان. بدأت العديد من الحكومات تمويل برامج لتطوير أسلحة الذكاء الاصطناعي. أعلنت البحرية الأمريكية في الآونة الأخيرة عن خطط لتطوير أسلحة بدون طيار مستقلة ، موازية لإعلانات مماثلة من قبل روسيا وكوريا على التوالي. بسبب احتمال أن تصبح أسلحة الذكاء الاصطناعي أكثر خطورة من الأسلحة التي يديرها الإنسان ، وقع ستيفن هوكينج وماكس تيجمارك عريضة “مستقبل الحياة” لحظر أسلحة الذكاء الاصطناعي. تنص الرسالة التي نشرها هوكينج وتيغارك على أن أسلحة الذكاء الاصطناعي تشكل خطراً مباشراً وأن هذا الإجراء مطلوب لتجنب الكوارث الكارثية في المستقبل القريب.
“إذا كانت أي قوة عسكرية كبرى تمضي قدما في تطوير أسلحة الذكاء الاصطناعي ، فإن سباق التسلح العالمي أمر لا مفر منه ، ونقطة النهاية لهذا المسار التكنولوجي واضحة: فالأسلحة ذاتية الحكم ستصبح بنادق الكلاشنيكوف غدا” ، حسب الالتماس ، الذي يشمل شركة Skype – المؤسس جاين تالين وأستاذ اللسانيات لعلوم اللغويات نعوم تشومسكي كداعمين إضافيين ضد أسلحة الذكاء الاصطناعي.
حذر الفيزيائي والفلكي رويال سير مارتن ريس من حالات كارثية مثل “الروبوتات الغبية التي تسير نحو المارقة أو شبكة تطوّر عقلية خاصة بها”. وقد أعرب هوو برايس ، زميل ريس في كامبريدج ، عن تحذير مماثل بأن البشر قد لا ينجو عندما تفلس الذكاء من قيود علم الأحياء. أنشأ هذان الأستاذان مركز دراسة المخاطر الوجودية في جامعة كامبردج على أمل تجنب هذا الخطر على الوجود البشري.
فيما يتعلق بالقدرة على استخدام الأنظمة الأكثر ذكاءً من الناحية العسكرية من الناحية العسكرية ، كتب مشروع “العمل الخيري المفتوح” أن هذه السيناريوهات “تبدو ذات أهمية محتملة مثل المخاطر المرتبطة بفقد السيطرة” ، ولكن منظمات الأبحاث التي تحقق في الأثر الاجتماعي طويل المدى لمنظمة العفو الدولية قضى وقتًا ضئيلًا نسبيًا في هذا الشاغل: “لم تكن هذه الفئة من السيناريوهات موضع تركيز رئيسي للمنظمات التي كانت الأكثر نشاطًا في هذا الفضاء ، مثل معهد أبحاث استخبارات الجهاز (MIRI) ومعهد المستقبل الإنساني (FHI) ويبدو أن هناك تحليلاً ونقاشًا أقل بشأنهم “.
أخلاقيات الآلة
أخلاقيات الآلة (أو الأخلاق الآلية) هي مجال البحث المعني بتصميم الوكلاء الأخلاقيين الصناعيين (AMAs) ، أو الروبوتات ، أو الحواسيب الذكية المصطنعة التي تتصرف بطريقة أخلاقية أو كأنها أخلاقية.
اعتبر إسحاق أسيموف المسألة في الخمسينيات من القرن العشرين في كتابه الأول “روبوت”. في إصراره على محرره جون و. كامبل جونيور ، اقترح قوانين ثلاثة من الروبوتات لإدارة الأنظمة الذكية بشكل مصطنع. ثم قضى الكثير من أعماله في اختبار حدود قوانينه الثلاثة لمعرفة أين يمكن أن تتعطل ، أو حيث يخلق سلوك متناقض أو غير متوقع. يشير عمله إلى أنه لا توجد مجموعة من القوانين الثابتة يمكنها توقع كل الظروف الممكنة بشكل كافٍ.
في عام 2009 ، خلال تجربة في مختبر الأنظمة الذكية في مدرسة الفنون التطبيقية في لوزان في سويسرا ، تعلمت الروبوتات التي تمت برمجتها للتعاون مع بعضها البعض (في البحث عن مورد مفيد وتجنب أحد السام) في النهاية أن تكذب على كل البعض في محاولة لخزن الموارد المفيدة. قد تكون إحدى المشاكل في هذه الحالة هي أن الأهداف كانت “طرفية” (أي على النقيض من ذلك ، فإن الدوافع البشرية النهائية عادة ما تكون ذات جودة تتطلب تعلماً لا نهاية له).
شكك بعض الخبراء والأكاديميين في استخدام الروبوتات للقتال العسكري ، خاصة عندما يتم منح هذه الروبوتات درجة معينة من الوظائف المستقلة. قامت البحرية الأمريكية بتمويل تقرير يشير إلى أنه كلما أصبحت الروبوتات العسكرية أكثر تعقيدًا ، يجب أن يكون هناك اهتمام أكبر بالآثار المترتبة على قدرتها على اتخاذ قرارات مستقلة. كلف رئيس جمعية النهوض بالذكاء الاصطناعي بإجراء دراسة للنظر في هذه المسألة. يشيرون إلى برامج مثل “جهاز اكتساب اللغة” التي يمكن أن تحاكي التفاعل البشري.
اقترح فيرنور فينج أن لحظة قد تأتي عندما تكون بعض أجهزة الكمبيوتر أكثر ذكاءً من البشر. يسمي هذا “التفرد”. يقترح أنه قد يكون نوعًا ما أو خطيرًا جدًا على البشر. يناقش هذا من قبل فلسفة تسمى Singularitarianism. اقترح معهد أبحاث استخبارات الماكينة الحاجة إلى بناء “منظمة العفو الدولية الصديقة” ، وهذا يعني أن التقدم الذي يحدث بالفعل مع الذكاء الاصطناعي يجب أن يتضمن أيضًا جهدًا لجعل الذكاء الاصطناعي صديقًا وإنسانيًا بشكل جوهري.
في عام 2009 ، حضر الأكاديميون والخبراء الفنيين مؤتمراً نظمته جمعية النهوض بالذكاء الاصطناعي لمناقشة التأثير المحتمل للروبوتات والحواسيب وتأثير الاحتمالية الافتراضية التي يمكن أن تصبح مكتفية ذاتياً وقادرة على اتخاذ قراراتهم بأنفسهم. . وقد ناقشوا إمكانية ومدى تمكن أجهزة الكمبيوتر والروبوتات من الحصول على أي مستوى من الاستقلالية ، وإلى أي درجة يمكن أن يستخدموا مثل هذه القدرات ليشكلوا أي تهديد أو خطر. وأشاروا إلى أن بعض الآلات قد اكتسبت أشكالا مختلفة من شبه الحكم الذاتي ، بما في ذلك القدرة على العثور على مصادر الطاقة الخاصة بهم والقدرة على اختيار الأهداف بشكل مستقل للهجوم بالأسلحة. كما أشاروا إلى أن بعض فيروسات الكمبيوتر يمكنها تجنب الإفلات من العقاب وحققت “ذكاء صرصور”. لاحظوا أن الوعي الذاتي كما هو موضح في الخيال العلمي هو على الأرجح غير محتمل ، ولكن هناك مخاطر ومآخذ محتملة أخرى.
ومع ذلك ، هناك تقنية واحدة على وجه الخصوص يمكن أن تجلب حقا إمكانية استخدام الروبوتات ذات الكفاءة الأخلاقية للواقع. في ورقة بحثية عن اكتساب القيم الأخلاقية بواسطة الروبوتات ، يذكر نايف الروضان حالة الرقاقات العصبية ، التي تهدف إلى معالجة المعلومات بشكل مشابه للبشر ، غير خطية ومع ملايين الخلايا العصبية الاصطناعية المترابطة. يمكن للروبوتات المضمنة بالتكنولوجيا العصبية أن تتعلم وتطور المعرفة بطريقة إنسانية فريدة. وهذا يثير حتمًا مسألة البيئة التي ستتعلم فيها هذه الروبوتات عن العالم ، والتي قد ترثها أخلاقيتها – أو إذا ما انتهى بها الأمر إلى تطوير نقاط ضعف بشرية أيضًا: الأنانية ، والموقف المؤيد للبقاء ، والتردد الخ.
في الأخلاقيات: تعليم الروبوتات من الخطأ ، استنتج Wendell Wallach و Colin Allen أن محاولات تعليم الروبوتات من الخطأ على الأرجح ستعزز فهم أخلاقيات الإنسان من خلال تحفيز البشر على معالجة الفجوات في النظرية المعيارية الحديثة ومن خلال توفير منصة للتحقيق التجريبي. وكمثال على ذلك ، فقد أدخل علماء الأخلاق المعيارية للقضية المثيرة للجدل والتي تستخدم خوارزميات تعلم محددة في الآلات. ناقش كل من Nick Bostrom و Eliezer Yudkowsky أشجار القرار (مثل ID3) على الشبكات العصبية والخوارزميات الوراثية على أساس أن أشجار القرار تمتثل للمعايير الاجتماعية الحديثة للشفافية والقدرة على التنبؤ (مثل حذر التحديق) ، في حين جادل كريس سانتوس لانغ في المقابل الاتجاه على أساس أنه يجب السماح لقواعد أي عمر بتغيير وأن الفشل الطبيعي في تلبية هذه المعايير بشكل كامل كان ضروريًا في جعل البشر أقل عرضةً “للمتسللين” المجرمين.
عواقب غير مقصودة
لقد جادل العديد من الباحثين بأنه ، من خلال “انفجار المعلومات الاستخبارية” في وقت ما في القرن الواحد والعشرين ، يمكن أن تصبح الذكاء الاصطناعي الذي يتحسن ذاتيًا أكثر قوة من البشر بشكل كبير لدرجة أننا لن نتمكن من منعه من تحقيق أهدافه. في كتابه “قضايا أخلاقية في الذكاء الاصطناعي المتقدم” ، يجادل الفيلسوف نيك بوستروم بأن الذكاء الاصطناعي لديه القدرة على تحقيق الانقراض البشري. ويدعي أن الذكاء الفائق العام سيكون قادراً على المبادرة المستقلة ووضع خططه الخاصة ، وبالتالي قد يكون من الأنسب اعتباره كعامل مستقل. وبما أن الذكاء الاصطناعي لا يحتاج إلى مشاركة توجهاتنا التحفيزية البشرية ، فإن الأمر يعود إلى مصممي الذكاء الفائق لتحديد دوافعه الأصلية. من الناحية النظرية ، فإن الذكاء الاصطناعي الفائق الذكاء قادر على تحقيق أي نتيجة ممكنة تقريبًا وإحباط أي محاولة لمنع تنفيذ هدفه الأعلى ، يمكن أن تنشأ العديد من العواقب غير المقصودة غير المنضبط. يمكن أن يقتل جميع الوكلاء الآخرين ، ويقنعهم بتغيير سلوكهم ، أو يوقف محاولاتهم للتدخل.
ومع ذلك ، بدلاً من التغلب على الجنس البشري وتدميرنا ، أكد Bostrom أيضًا أن الذكاء الفائق يمكن أن يساعدنا في حل العديد من المشاكل الصعبة مثل المرض والفقر والتدمير البيئي ، ويمكن أن يساعدنا على “تعزيز” أنفسنا.
التعقيد الهائل لأنظمة القيم الإنسانية يجعل من الصعب للغاية جعل دوافع منظمة العفو الدولية صديقة للإنسان. ما لم تزودنا الفلسفة الأخلاقية بنظرية أخلاقية خالية من العيوب ، فإن وظيفة المنفعة التي تقدمها منظمة العفو الدولية يمكن أن تسمح لكثير من السيناريوهات الضارة المحتملة التي تتوافق مع إطار أخلاقي معين ولكن ليس “الحس السليم”. وفقا لليعيزر Yudkowsky ، هناك سبب ضئيل أن نفترض أن العقل المصممة بشكل مصطنع لديها مثل هذا التكيف.
يقترح بيل هيبارد تصميمًا لمنظمة العفو الدولية يتجنب عدة أنواع من سلوك الذكاء الاصطناعي غير المقصود ، بما في ذلك خداع الذات ، وإجراءات مفيدة غير مقصودة ، وفساد مولد المكافآت.
المنظمات
أقامت Amazon و Google و Facebook و IBM و Microsoft شراكة غير ربحية لصياغة أفضل الممارسات في تقنيات الذكاء الاصطناعي ، وتعزيز فهم الجمهور ، ولتكون بمثابة منصة حول الذكاء الاصطناعي. وذكروا: “ستجري هذه الشراكة حول الذكاء الاصطناعي البحوث ، وتنظيم المناقشات ، وتوفير القيادة الفكرية ، والتشاور مع الأطراف الثالثة ذات الصلة ، والرد على أسئلة الجمهور ووسائل الإعلام ، وإنشاء مواد تعليمية تعزز فهم تقنيات الذكاء الاصطناعي بما في ذلك إدراك الجهاز ، والتعلم. والتفكير الآلي. ” انضمت أبل إلى شركات التكنولوجيا الأخرى كعضو مؤسس في شراكة منظمة العفو الدولية في يناير 2017. وسيقدم أعضاء الشركة مساهمات مالية وبحثية إلى المجموعة ، بينما يتعاونون مع المجتمع العلمي لجلب الأكاديميين إلى مجلس الإدارة.
في الخيال
فيلم The Thirteenth Floor يوحي بمستقبل حيث يتم إنشاء عوالم محاكية مع سكان متحمسين بواسطة أجهزة ألعاب الكمبيوتر لأغراض الترفيه. يقترح فيلم “المصفوفة” مستقبلاً حيث الأنواع المهيمنة على كوكب الأرض هي آلات حاضرة ويتم التعامل مع البشرية بأقصى قدر من الأنواع. تشير القصة القصيرة “The Planck Dive” إلى مستقبل حيث حوّلت البشرية نفسها إلى برمجيات يمكن تكرارها وتحسينها ، والتمييز ذو الصلة بين أنواع البرامج غير واعي وغير واع. يمكن العثور على نفس الفكرة في صورة الهولوغرام الطبي للطوارئ لـ Starship Voyager ، وهي نسخة واضحة على ما يبدو عن مجموعة فرعية مخفضة من وعي مبدعها ، الدكتور زيمرمان ، الذي ، ولأفضل الدوافع ، أنشأ نظامًا لتقديم العلاج الطبي المساعدة في حالات الطوارئ. تتعامل أفلام Bicentennial Man و AI مع إمكانية روبوتات محبة يمكن أن تحب. أنا ، روبوت استكشاف بعض جوانب القوانين الثلاثة اسيموف. تحاول كل هذه السيناريوهات أن تتوقع نتائج غير أخلاقية محتملة لخلق أجهزة كمبيوتر حساسة.
أخلاقيات الذكاء الاصطناعي هي واحدة من عدة موضوعات أساسية في سلسلة ألعاب Mass Effect من BioWare. إنه يستكشف سيناريو حضارة خلقت منظمة العفو الدولية عن طريق الخطأ من خلال زيادة سريعة في القوة الحسابية من خلال شبكة عصبية عالمية النطاق. تسبب هذا الحدث في حدوث انقسام أخلاقي بين أولئك الذين شعروا بإعطائهم الحقوق العضوية على الجيت الجديد ، وكان من المناسب أن يستمروا في رؤيتهم كآلية يمكن التخلص منها وحاربوا لتدميرها. أبعد من الصراع الأولي ، يعتبر تعقيد العلاقة بين الآلات ومنشئوها موضوعًا مستمرًا آخر طوال القصة.
وبمرور الوقت ، كانت النقاشات تميل إلى التركيز بشكل أقل وأقل على الاحتمالية وأكثر على الاستحسان ، كما تم التأكيد عليه في مناظرات “Cosmist” و “Terran” التي بدأها كل من Hugo de Garis و Kevin Warwick. يسعى كوشي ، وفقا لهوغو دي غارس ، في الواقع إلى بناء خلفاء أكثر ذكاء للأنواع البشرية.
الأدب
البيبليوغرافيا المعيارية حول أخلاقيات الذكاء الاصطناعي هي على PhilPapers. مجموعة حديثة هي VC Müller (ed.) (2016).