المخاطر الوجودية والتطور الرقمي غير المنضبط

[أنا لست متخصص في الذكاء الاصطناعى. لا يقدم الكتاب قيد المناقشة أي حلول ملموسة ، ولكنه ينتمي إلى فئة #speculative press و الخيال العلمي. كما يحدث غالبًا في مثل هذه الحالات ، تكون المناقشات التي يتم إنشاؤها بواسطة الكتاب أكثر إثارة للاهتمام وفائدة من الكتاب نفسه. أصبح هذا الموضوع أكثر انتشارًا باللغة الإنجليزية. الانترنت. في Runet ، الاستعلام @ superintelect ، @ supermind يعطي ~ 189 نتيجة شهريًا (Yandex)]

"ماذا لو نجحنا؟"
ستيوارت راسل

أولا نهاية العالم غدا

في كتابه الذكاء الخارق: الفرص والمخاطر والاستراتيجيات يرسم نيك بوستروم سيناريوًا متشائمًا لتطوير الذكاء الاصطناعي: بمجرد ظهور الذكاء الاصطناعي على قدم المساواة مع الذكاء البشري ، يصبح الذكاء الخارق أحد اختراعاته الأولى. ومن ثم ، "ليس هناك حاجة إلى عازف الكمان" ، يمكن لنظم المعلومات فائقة الذكاء أن تثقِّف نفسها وتعيد إنتاج أنظمة أكثر تعقيدًا ، وتتحكم في إنتاج وتوزيع الذكاء الاصطناعي المتنافس ، وتنغمس في سباق مالتوسي قوي مع عناصر ذكية أخرى في حضن الطبيعة الاصطناعية.

المخاطر الوجودية من حي العقل البشري والإنسان تنمو بعدة أضعاف. يحذر نيك بوستروم من أن الذكاء الخارق قادر على التعلم بشكل أسرع وأكثر كفاءة لمبدعيه ، وإذا لم تغرس القيم الإنسانية فيه ، فكل شيء يمكن أن ينتهي بشكل سيئ ، لأن الذكاء الخارق لن يكون فقط قادرًا على تنظيم الإنتاج الإضافي للآلات الذكية ، بل سيمنع الأشخاص بنجاح من محاولة تصحيح عمله أو التدخل فيه.

السيرة الذاتية للتراجع: يُعرف نيك بوستروم بين العلماء والفلاسفة بأنه عاشق الرعب - فهو يرأس المعهد ، الذي يشارك في البحث عن المخاطر الوجودية ونشرها ، ولديه هذه الوظيفة. حتى أن بعض الزملاء يطلقون عليه دونالد ترامب من منظمة العفو الدولية ، فإن نيك بوستروم يتعرض للإهانة ، ولكنه يسامح بسرعة. العالم القاسي للجدل العلمي. نهاية السيرة الذاتية.

II. ماذا يعتقد الخبراء؟

بالفعل ، لدى الذكاء الاصطناعى "عقلانية محدودة" - يمكنه اختيار الإستراتيجية المثلى لتحقيق النتائج. ماذا سيحدث إذا تعلم تغييرها وتغيير التسلسل الهرمي لأهدافه؟

كحجة رئيسية في دعم مخاوفهم ، يستشهد Bostrom بالرغبة في التحسين. ويؤكد بوستروم أنه إذا احتاج الذكاء الخارق إلى حل نظرية ريمان ولهذا فإنه يحتاج إلى تحويل نصف الكائنات الحية إلى أجهزة كمبيوتر ، فسوف يفعل ذلك دون تردد. إذا احتاج الذكاء الفائق إلى علاج السرطان ، فسوف يفعل ذلك ، حتى لو كان يحتاج إلى تدمير جميع الأشخاص الذين لا يعانون من السرطان. يضع المؤلف مشكلة السيطرة على الذكاء الفائق في المقام الأول في تطوير الذكاء الاصطناعي. بين العلماء ، يسمى هذا السيناريو نماذج من bostrom في 2000s. وقد لفتت التطورات الحديثة في التعلم الآلي الانتباه إلى هذه المسألة حتى من قِبل القلة الفنية ورجال الأعمال الذين أبدوا ناقوس الخطر وأعربوا بصراحة عن قلقهم بشأن تطوير الذكاء الاصطناعي.

رامز نعم يشك في أن آراء ب. جيتس ، ماسكا ("الذكاء الفائق قنبلة ذرية جديدة")، هوكينج على مخاطر الذكاء الاصطناعى لها أي وزن. "# تلبية الحاجة. لم يعمل أي منهم في هذا المجال."يستشهد بآراء خبراء تعلم الذكاء الاصطناعى البارزين:

  • مايكل لتمان ، أستاذ بجامعة براون وموظف سابق في جمعية الذكاء الاصطناعى: "مثل هذه المخاوف هي ببساطة غير واقعية. لا يمكن لمنظمة العفو الدولية أن تستيقظ وتصنع نهاية العالم".
  • جان لوكون ، أخصائي فيسبوك على الشبكات العصبية: "يعتقد بعض الأشخاص أن الذكاء الاصطناعي سيكون قادرًا على برمجة نفسه ذات يوم. عادةً ما لا يقوم المتخصصون بعمل مثل هذه الافتراضات."
  • أندرو يون ، متخصص في التعلم / Google / Baidu "نعم ، أصبحت أجهزة الكمبيوتر أكثر ذكاء. ولكن هذا هو العقل فقط ، وليس العقل والوعي الذاتي ، ولا يعتقد معظم الخبراء أنه بهذه الطريقة يمكنك إنشاء الذكاء الاصطناعي الواعي. القلق بشأن مخاطر الذكاء الفائق هو نفسه القلق الزيادة السكانية في المريخ."
  • غير ذلك ، يعتقد الخبراء الأقل جدية خلاف ذلك:
  • قال ريتشارد سوتون ، أستاذ علوم الكمبيوتر بجامعة ألبرت ، في خطابه في مؤتمر حول الذكاء الاصطناعى الآمن: "هناك احتمال معين لحدوث مستوى الذكاء الاصطناعي للشخص" وبعد ذلك "سوف نضطر للتعاون معه" ، و "من العبد المعقول ، يمكن أن يصبح الذكاء الاصطناعي منافسًا معقولًا."
  • يورغن شميدهوبر ، أستاذ في الذكاء الاصطناعي بجامعة لوغانو وأستاذ سابق للعلوم المعرفية للروبوتات في جامعة ميونيخ ، ينص على ما يلي: "إذا بقيت وتيرة تطور العلوم على نفس المستوى كما كان من قبل ، فعند العقود المقبلة يمكننا أن نتوقع طفرة حقيقية في تطبيق الذكاء الاصطناعي". على reddit ، لاحظ أن: "للوهلة الأولى ، يمكن أن يساعد التحسين الذاتي المتكرر في أجهزة Gödel على تطوير الذكاء الخارق. يمكن لآلات Gödel تحديد وإجراء تغييرات في الكود الخاص بها والتي من المحتمل أن تحقق نتائج إيجابية وفقًا للمجموعة الأولية من الميزات. وهذا هو ، يمكننا تحديد" الصحيح "الأولي ستعمل المعلمات والآلة على تطويرها بأنفسهم ، ويمكن للباحثين الآخرين أن يسألوا أجهزتهم مجموعة مختلفة من المعايير ، وسيبدأ سباق الآلات للتطورات ، ومن المستحيل التنبؤ بمن سيفوز في هذا السباق وما الذي سيجلبه إلينا. المزيد عن ذلك."
  • كتب موراي شينيهين ، أستاذ علوم الكمبيوتر بجامعة كامبريدج ، في كتابه "التفرد التكنولوجي" ما يلي: "من إنشاء مستوى الذكاء الاصطناعى للشخص (ممكن من الناحية النظرية ، ولكن من الصعب للغاية) لإنشاء الذكاء الخارق ، قد يستغرق الأمر بعض الوقت ويمكن مقارنة هذا التقدم بنقطة التفرد ، حيث ستتطور الأحداث بشكل أسرع مما نتصور. سوف يرتبط الإفراط في الذكاء الذي يتفوق على القدرات البشرية بزيادة المخاطر الوجودية وزيادة الفوائد ".

آلان تورينج ، الذي لا يحتاج إلى مقدمة ، في عمله "هل الآلة الرقمية قادرة على التفكير؟" يكتب: "لنفترض أننا نجحنا في إنشاء آلات تفكير. سيؤدي ذلك إلى ظهور صدى وسيواجه مقاومة من المثقفين والعلماء الذين سيكونون قلقين بشأن وضعهم وعملهم. ولأسباب وجيهة. لأنه عندما تصل الآلات إلى مستوى التفكير البشري ، سيتعين على الناس أن يحاولوا بشدة من أجل مواكبة الآلات في نشاط معقول ، من المحتمل أيضًا أن تكون قدرة الماكينة المعقولة على خلق تشابهها أو آلة أكثر ذكاءً ، وبالتالي ، يمكن توقع أنه بمجرد أن تتمكن الآلة المعقولة من أن تكون معقولة تحت سيطرة بشرية ".

III. لماذا الذكاء الاصطناعي؟

لأن الدماغ البشري هو الأقرب إلى ما يحدث في التعلم الآلي: تسمى نظم المعلومات التي تخضع للتعلم الآلي الشبكات العصبية وتتكون من طبقات منفصلة ، كل منها مسؤول عن معالجة معلومات معينة. إذا تمكنت طبقات المستويات الأدنى من تلقي المعلومات ، فعندئذ يمكن لطبقات المستويات العليا معالجتها ونقلها واستخدامها للتدريب الخاص بهم. مشابهة جدا لآلة التعلم الذاتي في رأس الإنسان.

الشبكات العصبية قادرة بالفعل على التمييز بين الكلام البشري والوجوه أفضل من البشر. هذا ليس ضارًا كما يبدو للوهلة الأولى. لقد فوجئنا بفوز جهاز كمبيوتر على شخص ما في لعبة الشطرنج أو الذهاب ، على الرغم من أن الشخص لا يملك أقسامًا خاصة في القشرة الدماغية لحل مشاكل الشطرنج. لكن التعرف على الوجوه وتصنيفها هو بالفعل منطقة خاصة من القشرة التي تطورت تطوريًا وهي مسؤولة عن البقاء على قيد الحياة. وفي هذا المجال ، الذكاء الاصطناعي أفضل من الإنسان اليوم.

لذا ، فإن الذكاء الاصطناعى قادر على فهم المعلومات التعليمية بصورة مجردة وقاطعة: للتمييز بين صور الكلاب البيضاء ، الكلاب السوداء ، الأسبانيل ، الكلاب الألمانية ، الجراء ، الكلاب البالغة ، ونسب كل هذا إلى فئة "الكلاب". يمكن لمنظمة العفو الدولية إنشاء وتوضيح الزخارف الإباحية في الصور. (احذر: المواد الإباحية الرقمية الحقيقية من حيث الذكاء الاصطناعى). تشير قدرات AI (التصنيف / التعميم / التصنيف) إلى أبسط نشاط معقول لنظام المعلومات.

ما التالي؟

IV. قارن بين النهجين:

1. ميكانيكي: تصنيف / تصنيف هو بالتأكيد واحدة من علامات وكيل معقول. لكن واحد فقط من. هذه ميزة مفيدة ورائعة ، ولكنها ليست الميزة الرئيسية. يتطلب الذكاء الحقيقي أكثر من القدرة على النقر فوق الألغاز - الرغبة في النقر فوق الألغاز. التمييز بين صور الكلاب ووصفها بأنها كلب رائع ، بلا شك. يجب أن يكون الذكاء الاصطناعي الحالي متأصلاً بشكل أساسي في الرغبة والدافع التحفيزي لحل المشكلات وإثبات النظريات. وإنشاء نظام معلومات متمنٍ عقلاني هو أكثر من مجرد القدرة على أداء مهام فائقة السرعة وكفاءة حتى معقدة للغاية وفقًا لتعليمات مهندس هذا النظام. وقد تختلف رغبات آلة ذكية متمنية عن أهداف الخالق البشري. هذا النهج لطيف نيك Bostrom.

2. بيولوجي (تحذير: التبسيط الخام): يتكون معظم الدماغ من خلايا مختلفة أو مختلفة قليلاً تطورت أثناء التطور. إذا تمكنا من فهم كيفية عمل جزء من الدماغ ، فسيكون من الأسهل بكثير فهم كيفية عمل مجالات أخرى. تحفيزية عمليات النشاط العقلاني البشري تحدث في نفس المناطق أو المناطق المماثلة في القشرة الدماغية التصور / التصنيف / التصنيف المعلومات. إذا اعتقد العلماء أنه يمكن استنساخ نظم المعلومات لتصنيف الإدراك وتصنيفها باستخدام مثال الدماغ البشري ، ثم لإعادة إنتاج أنظمة ذكية تحفيزية ، سيفضل العلماء تغيير عينات الشبكة العصبية الحالية للتصنيف / التصنيف. لن تبدو مثل هذه الأنظمة نماذج بدوافع كاملة وتركز على الأهداف (العقل البشري يشبه إلى حد ما مثل هذه الأنظمة). على الأرجح ، سيظهر الكثير من المفاهيم والرغبات والدوافع المتنوعة ، كما يحدث عادة في رؤوس البشر. مثل هذا النهج يشكك في القوة الكلية للخالق على الذكاء الاصطناعى ، لأن الدوافع / الأهداف المبرمجة للآلة قد لا تنشأ أو سوف تتغير بشكل كبير.

التراجع البيولوجي. من الصعب تتبع التاريخ التطوري للنهج البيولوجي والتأكيد بدقة كبيرة. حدث الفصل بين الإدراك المعرفي / معالجة المعلومات الحسية (قشرة الفص الجبهي) ومراكز الذاكرة / الانفعال / السلوك (ما تحت المهاد والقرن آمون) في المراحل المبكرة من تطور الفقاريات أو حتى قبل ذلك. ومع ذلك ، فقد احتفظت هذه الأنظمة المختلفة بالاتصالات وتتداخل مع وظائف بعضها البعض. ترتبط بعض أجزاء القشرة بالمهاد وتنتمي إلى الجهاز الحوفي. وتشارك أجزاء أخرى من المهاد (الدماغ السحلية ، والجهاز الحوفي) في معالجة المعلومات (colliculi).

يبدو أن مناطق الدماغ المسؤولة عن الإدراك الحسي والمناطق التحفيزية-العاطفية موجودة في أجزاء مختلفة من القشرة. علاوة على ذلك ، فإن القشرة السابقة للجبهة ، والتي تعتبر مهد الشخصية الإنسانية (النشاط المعرفي العالي ، التقييم ، التخطيط ، إلخ) ، ربما تطورت من قشرة الأسماك الأولى ، من الدماغ الفردي لهذه الأسماك. والتي نشأت بدورها من بين مئات الخلايا العصبية التي كانت مسؤولة عن إدراك ومعالجة المعلومات الحسية في الديدان الأولى. نهاية التراجع البيولوجي.

لا يشير التشريح أو التطور إلى فصل مستقل تمامًا بين الإدراك والمعالجة ودوافع النشاط المعقول. يمكن لنفس الأنظمة أن تتصور المعلومات في مكان واحد ، ومع التغييرات الطفيفة ، تقوم بمعالجتها وتحفيز المزيد من النشاط في أجزاء أخرى من الدماغ. كل واحد. في خطر الانغماس في الميتافيزيقيا والتصوف ، دعنا نقول فقط أن التشوهات المعرفية (معالجة المعلومات) والأوهام البصرية (التصورات) لها قواسم مشتركة أكثر مما كان يعتقد سابقًا (تبسيط آخر: تحدث هذه التشوهات في حقول متطابقة تقنيًا ، حقول برودمان).

خامسا على أصل الأنواع

التصنيف / التصنيف هو أساس التربية الأخلاقية. ربما هذا هو الأخلاق. خذ على سبيل المثال الفئات الذهنية: الكل يعرف ما هو الطائر ، لكن مع التعريف الدقيق "للطيور" ، يكون الأمر أكثر صعوبة قليلاً (اللقلق هو طائر ، البطريق طائر غريب ، الأركيوبتركس ... شبه طائر؟).

يتذكر الجميع كيف تنشأ هذه الفئات. القليل من التعلم ، تُظهر الأم للطفل دجاجة وتقول "الطيور" ، بعد بضع سنوات يتعلم الطفل أن الخفافيش "ليس طائرًا" وأن عقلك يعمل بحرية مع فئات / فصول وتجريدات معقدة ، وبعد وصول ألفي سنة أخرى ويقول أن هناك مثل هذا النوع من الفقاريات "الطيور" ، وهو أمر جيد جدًا ، لكنك عرفته بدونه.

يتعلم الناس الأخلاق والأخلاق بطريقة مماثلة. عندما نعض شخصًا ما ، تخبرنا الأم / الأب / المعلم / الحاخام / الكاهن / شامان أن هذا "سيء" ؛ عندما نشارك الكعكة ، يُقال لنا أن هذا "جيد". استنادًا إلى العمل باستخدام مثل هذه الأمثلة ، يعمل نظام المعلومات مع فئات وفئات حتى لو لم يتمكن من تقديم تعريفات دقيقة لهذه الفئات والفئات.

يمكن للذكاء الاصطناعي تطوير أخلاقه المصطنعة بناءً على البيانات التي يقدمها العلماء. تحدث الأخلاق أثناء التدريب على الذكاء الاصطناعي. بوستروم يعتقد أن الأخلاق / أخلاقيات الذكاء الاصطناعي هي فصل وحدة أو مجموعة من المعلومات التدريبية.

الحجة المضادة المعتادة في بوستروموفسكي هي احتمال قيام منظمة العفو الدولية باستنتاجات خاطئة من معلومات التدريب وتطوير نظام قيم خطير على الناس. على سبيل المثال ، قد تقرر منظمة العفو الدولية أن كل الأشياء التي تجعل الشخص سعيدًا جيدة. وسيبدأ في التحسين إلى الحد الأقصى - سيبدأ في حقن الهيروين للشخص طوال الوقت حتى يظل الشخص سعيدًا.

لا أعلم السبب ، لكن التقييم الإنساني للأعمال لا يعمل بشكل مباشر ، وفي حالات نادرة يجلب بعض الأفكار إلى كتلة حرجة. ربما يكون هذا بسبب خصوصيات التصنيف / التصنيف أو العوامل الخارجية التي تشارك في القرار النهائي ، وليس فقط الانقسام الثنائي الجيد. يمكن أن تكون هذه مهمة مهمة لمطوري الذكاء الاصطناعى - لتحديد ما الذي يجعل أنظمة المعلومات بالضبط تصنف المعلومات مثل إنسان *.

بشكل عام ، من الصعب أن نتخيل أن الشخص لديه جين أخلاقي محدد ، شريحة أخلاقية من القشرة الدماغية ، نوع من التكيف الأخلاقي. ومن غير المرجح أن تكون الأخلاق والأخلاقيات بنيات بيولوجية تطورية وآليات بيولوجية عصبية - على الأرجح الأخلاق والأخلاق هي الشروط الضرورية للسلوك الاجتماعي الإيجابي. تشبه الأخلاق سطح المنزل ، الذي ينمو بشكل طبيعي بسبب العمل الصحيح في الأقسام الدنيا ، وتعليم الذكاء الاصطناعي للأخلاق والأخلاق أمر مستحيل بصرف النظر عن التعلم العادي (إذا كنا نتحدث عن الذكاء الاصطناعي استنادًا إلى شبكات عصبية تكرّر هياكل الدماغ).

المجال التحفيزي للشخص يعمل على الدوبامين ونظام المكافآت. يبقى أن نأمل أن يتم تنفيذ أقرب قدرة بشرية على التصنيف في نماذج الذكاء الاصطناعي. قد يرغب الناس في ممارسة الجنس دون الرغبة في تخصيب جميع الكائنات الحية وغير الحية حتى ينفجر الكوكب. منظمة العفو الدولية على أساس النموذج البشري لتصور وتصنيف البيانات ، وسوف تريد أن حل المشاكل دون رغبة الهوس لإخضاع كل الأهداف الأخرى لهذه الرغبة. ليس دائمًا وليس كل الأشخاص محسنين بلا تفكير: يعد تحديد الأهداف الهرمية أمرًا شائعًا للناس ؛ حيث يفهم الجميع أن كونك معنويًا مفيدًا على المدى الطويل. هذا يعني أن الذكاء الفائق لن يصبح على الأرجح مُحسِّن فاصل قاتل للبشرية.

الافتراض الأكثر شيوعًا (الذي يدعمه نيك بوستروم): الذكاء الاصطناعي سيكون تجسيدًا للمنطق الخالص ، خالٍ تمامًا من أوجه التشابه بين العواطف / الشك / التردد ، وسيتعين علينا كبح جماح هذا الهدف الرياضي **. إذا تذكرنا هذه الأمثلة من العينة البشرية ، فستصبح هذه المخاوف مبالغًا فيها بعض الشيء - معظم الناس الذين لديهم تعاطف ضعيف ولديهم أخلاق سيئة ، ويظهرون سلوكًا معاديًا للمجتمع ، فمن الصعب عليهم أن يتعلموا ويتكيفوا ، ببساطة لأنه يصعب عليهم فهم الآخرين (مرض التوحد ، والأشخاص الذين يعانون من اضطرابات الفصام) ، حتى لو تمكنوا من استخراج جذور الأرقام المكونة من خمسة أرقام. من الصعب على هؤلاء الناس ألا يخططوا لقتل البعوض ، فهم بالكاد يتحملون مشاعر حذاء جديد على أقدامهم ، أي نوع من الفتح العالمي للحديث عنه؟ هناك بالفعل علاقة واضحة بعمليات التفكير ، التي تتحدث عن عدم انفصال الذكاء عن الأخلاق. يبدو لي أن سيناريو آخر ، حيث ستفكر منظمة العفو الدولية ليس فقط عن طريق الصيغ الرياضية / رمز البرنامج ، ممكن أيضًا. سيكون الأمر أكثر تعقيدًا وليس مخيفًا كما يوحي بوستروم. وسيحتاج الناس بعد ذلك إلى استراتيجيات أخرى للتعايش مع الذكاء الاصطناعى.


* في 4 مارس 2016 ، قام برنامج MIRI Machine Learning Institute "محاذاة القيمة لأنظمة التعلم الآلي المتقدمة" (تحديد الأهداف لأنظمة التعلم الآلية المعقدة). تتمثل مهمة هذا البرنامج في إنشاء "أنظمة معلومات الإنسان تحت الإنسان" ، ذات الاستقلالية المحدودة.

**Формальная логика, специалистом по которой является Ник Бостром, не всегда адекватно описывает реальность (или не стремится). Так что эти опасения немного преувеличены и логико-математический терминатор может оказаться не таким опасным, как видится Бострому.


نبذة عن مؤلف الكتاب قيد المراجعة: الفيلسوف السويدي نيك بوستروم ، مؤلف أكثر من 200 منشور حول المخاطر العالمية ، والتسلسل ، ومبدأ الأنثروبولوجيا ، والأخلاقيات العلمية. مدير معهد مستقبل الإنسانية ، أستاذ بجامعة أكسفورد. حائز على درجات علمية في المنطق الرياضي والفيزياء وعلم الأعصاب الحسابي والفلسفة.

الأصل: نموذج Bostromian والتقدم الحديث لمنظمة العفو الدولية

ترك تعليقك