الذكاء الفائق
الذكاء الفائق إنگليزية: Superintelligence هو وكيل فرضي يمتلك ذكاءً يتجاوز بكثير ذكاء أذكى العقول البشرية الموهوبة. قد يشير "الذكاء الفائق" أيضاً إلى خاصية في أنظمة حل المشكلات (على سبيل المثال، مترجمات لغوية بذكاء فائق أو مساعدين هندسيين) سواء تم تجسيد هذه الكفاءات الفكرية على مستوى عالٍ في وكلاء يتصرفون في العالم أم لا. قد يتم إنشاء الذكاء الفائق أو قد لا يتم ذلك عن طريق انفجار في الذكاء ويترافق ذلك مع التفرد التكنولوجي.
يعرف الفيلسوف نيك بوستروم من جامعة أكسفورد الذكاء الفائق على أنه "أي ذكاء يتجاوز بشكل كبير الأداء الإدراكي للبشر في معظم مجالات الاهتمام".[1] لا يتوافق برنامج فريتز مع هذا التصور للذكاء الفائق، حتى وإن كان أفضل بكثير من البشر في لعبة الشطرنج، لأن فريتز لا يمكنه تفوق البشر في مهام أخرى.[2] وبناءً على ما قدمه هوتر وليج، يعتبر بوستروم الذكاء الفائق كميزة عامة في السيطرة على السلوك الموجه نحو الهدف، مما يفتح المجال لما إذا كان الذكاء الفائق الاصطناعي أو البشري سيتمتع بقدرات مثل القصدية (بالمقارنة مع برهان الغرفة الصينية) أو الوعي الشخصي (بالمقارنة مع مشكلة الوعي الصعبة).
يختلف الباحثون التكنولوجيون فيما إذا كان من المرجح أن يتجاوز الذكاء البشري الحالي. يقول البعض إن التطورات في الذكاء الاصطناعي (AI) ستؤدي على الأرجح إلى أنظمة استدلال عامة تفتقر إلى قيود الإدراك البشري. يعتقد آخرون أن البشر سيتطورون أو يعدلون بشكل مباشر في أحيائهم لتحقيق ذكاء أكبر بشكل جذري.[3][4]تجمع سيناريوهات الدراسات المستقبلية بعض العناصر من هاتين الاحتماليتين، مما يشير إلى أنه من المرجح أن يتفاعل البشر مع الحواسيب، أو تحميل عقولهم إلى الحواسيب، بطريقة تمكنهم من تعزيز الذكاء بشكل كبير.
يعتقد بعض الباحثين أن الذكاء الفائق سيتبع على الأرجح بعد تطوير الذكاء العام الاصطناعي مباشرة. من المرجح أن تتمتع أول آلات ذكية عموماً بميزة هائلة في بعض أشكال القدرة العقلية على الأقل، بما في ذلك القدرة على تذكر كل شيء تماماً، وقاعدة معرفية تفوق بشكل كبير قاعدة المعرفة البشرية، والقدرة على تعدد المهام بطرق لا يمكن للكائنات البيولوجية القيام بها. هذا قد يمنحهم الفرصة - إما ككائن واحد أو كنوع جديد - أن يصبحوا أقوى بكثير من البشر ، وأن يحل محلهم.[1]
يدعو عدد من العلماء والمتنبئين إلى إعطاء الأولوية للبحث المبكر في الفوائد المحتملة والمخاطر المتعلقة بتحسين القدرات الإدراكية البشرية والآلات، بسبب التأثير الاجتماعي المحتمل لمثل هذه التقنيات.[5]
جدوى الذكاء الفائق الاصطناعي
خطأ الذكاء الاصطناعي حسب السنة. يمثل الخط الأحمر معدل الخطأ لإنسان مدرب.]]
يجادل الفيلسوف ديفد تشالمرز بأن الذكاء العام الاصطناعي هو طريق محتمل جداً للذكاء الخارق. يقسم تشالمرز هذا الادعاء إلى حجة مفادها أن الذكاء الاصطناعي يمكن أن يحقق التكافؤ مع الذكاء البشري، وأنه يمكن توسيعه ليتجاوز الذكاء البشري، وأنه يمكن تضخيمه بشكل أكبر للسيطرة تماماً على البشر عبر المهام العشوائية.[6]
فيما يتعلق بمعادلة الذكاء البشري، يجادل تشالمرز بأن الدماغ البشري هو نظام ميكانيكي، وبالتالي ينبغي أن يكون قابلاً للمضاهاة بالمواد الاصطناعية.[7] ويلاحظ أيضاً أن الذكاء البشري كان قادراً على التطور بيولوجياً، مما يجعل من المرجح أن يتمكن مهندسو البشر من إعادة إنتاج هذه الاختراع. يجب أن تكون خوارزميات التطور بشكل خاص قادرة على إنتاج ذكاء اصطناعي من المستوى البشري.[8] فيما يتعلق بتوسيع الذكاء وتضخيمه، يجادل تشالمرز بأن تقنيات الذكاء الاصطناعي الجديدة يمكن عمومًا تحسينها، وأن هذا من المرجح بشكل خاص عندما يمكن للاختراع مساعدة في تصميم تقنيات جديدة.[9]
إذا أنتج البحث في الذكاء الاصطناعي القوي برنامجاً ذكياً بدرجة كافية، فسيكون قادراً على إعادة برمجة نفسه وتحسينه - وهو ما يسمى "التحسين الذاتي التبادلي".[بحاجة لمصدر] ثم سيكون أفضل في تحسين نفسه، ويمكنه الاستمرار في ذلك في دورة متزايدة بسرعة، مما يؤدي إلى ذكاء خارق. يُعرف هذا السيناريو باسم التفرد التقني. لن يكون هذا الذكاء لديه قيود العقل البشري، وقد يكون قادراً على اختراع أو اكتشاف أي شيء تقريباً.[بحاجة لمصدر]
تتجاوز مكونات الكمبيوتر بالفعل أداء الإنسان بشكل كبير في السرعة. يكتب بوستوروم: "تعمل الخلايا العصبية البيولوجية بحد أقصى للسرعة يبلغ حوالي 200 هرتز ، أي سبعة أوامر من حيث الحجم أبطأ من معالج دقيق حديث (~ 2 غيغا هرتز).[10] علاوة على ذلك، تنقل الخلايا العصبية إشارات الدافع عبر المحاور بسرعة لا تزيد عن 120 متر في الثانية، "بينما يمكن أن تتواصل مراكز المعالجة الإلكترونية الموجودة بصرياً بسرعة الضوء". وبالتالي، قد يكون أبسط مثال على الذكاء الفائق هو عقل بشري محاكي يتم تشغيله على أجهزة أسرع بكثير من الدماغ. سيكون لدى المبرر الذي يشبه الإنسان والذي يمكن أن يفكر ملايين المرات أسرع من البشر الحاليين ميزة مهيمنة في معظم مهام التفكير، خاصة تلك التي تتطلب الاستعجال أو سلاسل طويلة من الإجراءات.
ميزة أخرى لأجهزة الكمبيوتر هي النمطية، أي يمكن زيادة حجمها أو قدرتها الحسابية. يمكن أن يصبح الدماغ غير البشري (أو البشري المعدل) أكبر بكثير من دماغ الإنسان الحالي، مثل العديد من أجهزة الحواسيب الفائقة. يثير بوستوروم أيضاً إمكانية الذكاء الفائق الجماعي: يمكن أن تعمل مجموعة كبيرة بما يكفي من أنظمة التفكير المنفصلة، إذا تواصلت ونسقت جيداً، في المجموع بقدرات أكبر بكثير من أي عامل فرعي.
توجد أيضاً طرق لتحسين التفكير واتخاذ القرار لدى البشر بشكل نوعي. يبدو أن البشر يختلفون عن الشمبانزي في طرق تفكيرنا أكثر من اختلافنا في حجم الدماغ أو سرعته.[11] يتفوق البشر على الحيوانات غير البشرية إلى حد كبير بسبب القدرات المنطقية الجديدة أو المحسّنة، مثل التخطيط طويل المدى واستخدام اللغة. (انظر تطور الذكاء البشري وعلم الإدراك القرد). إذا كانت هناك تحسينات أخرى محتملة في التفكير والتي سيكون لها تأثير كبير مماثل، فإن هذا يجعل من المرجح أن يتم بناء وكيل يتفوق على البشر بنفس الطريقة التي يتفوق بها البشر على الشمبانزي.[12]
جميع المزايا المذكورة أعلاه تنطبق على الذكاء الفائق الاصطناعي، ولكن من غير الواضح عددها الذي ينطبق على الذكاء الفائق البيولوجي. تحد القيود الفسيولوجية من سرعة وحجم أدمغة الكائنات الحية بطرق لا تنطبق على الذكاء الاصطناعي. وهكذا، فقد ركز كتاب الذكاء الفائق على سيناريوهات الذكاء الفائق الاصطناعي بشكل أكبر.[13]
جدوى الذكاء الفائق البيولوجي
اقترح كارل ساگان أن ظهور عمليات قيصرية وعمليات التلقيح الصناعي قد يسمح للبشر بتطور رؤوس أكبر، مما يؤدي إلى تحسينات في العنصر الموروث للذكاء البشري عن طريق الانتخاب الطبيعي.[14] في المقابل، جادل جيرالد كرابتري بأن انخفاض الذكاء يؤدي إلى انخفاض بطيء في الذكاء البشري على مدى قرون، وأن هذه العملية هي الأكثر ترجيحاً في المستقبل. لا يوجد إجماع علمي بشأن أي من الاحتمالات، وفي كلتا الحالتين سيكون التغيير البيولوجي بطيئاً، خاصةً بالمقارنة بمعدلات التغيير الثقافي.
الاصطفاء الاصطناعي، المحسنات الإدراكية، علم التخلق، والهندسة الوراثية يمكن أن تحسن الذكاء البشري بشكل أسرع. يكتب بوستوروم أنه إذا فهمنا المكون الجيني للذكاء، يمكن استخدام اختبار ما قبل الزرع للكشف عن الأجنة التي لديها ما يصل إلى 4 نقاط من مكاسب الذكاء (إذا تم اختيار جنين واحد من بين اثنين) ، أو مع مكاسب أكبر (على سبيل المثال، ما يصل إلى 24.3 نقطة من الذكاء المكتسب إذا تم اختيار جنين واحد من بين 1000). إذا تم تكرار هذه العملية على مدار العديد من الأجيال، يمكن أن تكون المكاسب أكبر بترتيب من حيث الحجم. يقترح بوستروم أن استنتاج امشاج جديدة من خلايا جذعية جنينية يمكن أن تستخدم لتكرار عملية الاختيار بسرعة كبيرة.[15] هذه الفكرة، اختيار الأجنة المتكرر، قد تلقت معالجة واسعة من قبل مؤلفين آخرين.[16] مجتمع منظم جيداً من البشر ذوي الذكاء الفائق من هذا النوع يمكن أن يحقق ذكاءً جماعياً فائقاً.[17]
بدلاً من ذلك، يمكن بناء الذكاء الجماعي عن طريق تنظيم البشر بشكل أفضل عند مستويات الذكاء الفردي الحالية. اقترح عدد من الكتاب أن الحضارة الإنسانية، أو بعض جوانبها (على سبيل المثال، الإنترنت، أو الاقتصاد)، تأتي لتعمل مثل الدماغ العالمي بقدرات تتجاوز بكثير عواملها المكونة. ومع ذلك، إذا كان هذا الذكاء الفائق القائم على الأنظمة يعتمد بشكل كبير على المكونات الاصطناعية، فقد يكون مؤهلاً باعتباره ذكاءً اصطناعياً بدلاً من كونها كائناً حياً فائقاً قائماً على علم الأحياء.[18] يعتبر سوق التنبؤ أحياناً مثالًا على عمل نظام ذكاء جماعي، يتكون من البشر فقط (افتراضًا أن الخوارزميات لا تستخدم لاتخاذ القرارات).[19]
طريقة نهائية لتعزيز الذكاء هي تعزيز الأفراد بشكل مباشر، بدلاً من تعزيز دينامياتهم الاجتماعية أو الإنجابية. يمكن تحقيق ذلك باستخدام محسن الذهن، أو العلاج الجيني الجسدي، أو واجهات الدماغ والكمبيوتر. ومع ذلك، يعرب بوستور عن شكوكه في قابلية التوسع للنهجين الأولين، ويجادل بأن تصميم واجهة سايبورغ فائقة الذكاء هو مشكلة للذكاء الاصطناعي المثالي.[20]
التنبؤ
يتوقع معظم الباحثين في الذكاء الاصطناعي أن تتمكن الآلات في النهاية من منافسة البشر في الذكاء، على الرغم من عدم وجود إجماع حول موعد حدوث ذلك. في مؤتمر AI@50 لعام 2006، أفاد 18٪ من الحضور أن الآلات ستكون قادرة على "محاكاة التعلم وجميع جوانب الذكاء البشري الأخرى" بحلول عام 2056؛ توقع 41٪ من الحضور أن يحدث هذا في وقت ما بعد عام 2056؛ وتوقع 41٪ أن الآلات لن تصل أبداً إلى هذا الإنجاز.[21]
في دراسة استقصائية لأهم 100 مؤلف في مجال الذكاء الاصطناعي (اعتباراً من مايو 2013، وفقاً لبحث مايكروسوفت الأكاديمي)، فإن العام الوسيط الذي توقع فيه المستجيبون أن تكون الآلات "قادرة على القيام بمعظم المهن البشرية على الأقل كما يفعل الإنسان العادي" (بافتراض عدم حدوث كارثة عالمية) بدرجة ثقة 10% هو 2024 (متوسط 2034، st. dev. 33 سنوات)، بدرجة ثقة 50% هو 2050 (متوسط 2072، st. dev. 110 سنوات)، وبدرجة ثقة 90% هو 2070 (متوسط 2168، st. dev. 342 سنة). هذه التقديرات تستثني 1.2٪ من المستجيبين الذين قالوا إن العام لن يصل أبداً إلى 10٪ من الثقة، و4.1٪ الذين قالوا "أبداً" بالنسبة لمستوى الثقة 50٪، و16.5٪ الذين قالوا "أبداً" بالنسبة لمستوى الثقة 90٪. أعطى المستجيبون احتمالية 50٪ في الوسط إلى إمكانية اختراع الذكاء الفائق للآلات في غضون 30 عاماً من اختراع الذكاء الاصطناعي الذي يقارب مستوى الإنسان.[22]
في دراسة استقصائية أجريت عام 2018 على 352 من باحثي التعلم الآلي، كان العام الوسيط الذي توقع فيه المستجيبون "ذكاءً عالي المستوى للآلات" بدرجة ثقة 50% هو 2061.[بحاجة لمصدر]حددت الدراسة تحقيق الذكاء العالي للآلات كنقطة يتمكن فيها الآلات غير المدعومة من إنجاز كل مهمة بشكل أفضل وأرخص من العمال البشر.
في عام 2023، نشر مدراء OpenAI توصيات بشأن حوكمة الذكاء الفائق، والتي يعتقدون أنها قد تحدث في أقل من 10 سنوات.[23]
متطلبات التصميم
أعرب بوستورم عن قلقه بشأن القيم التي يجب أن تصمم لها الذكاء الفائق. كما قارن بين عدة مقترحات:[24]
- اقتراح الإرادة المتناغمة المتنامية (CEV) هو أنه يجب أن يكون له القيم التي سينسق عليها البشر.
- اقتراح الصواب الأخلاقي (MR) هو أنه يجب أن يقدّر الشرعية الأخلاقية.
- اقتراح الترخيص الأخلاقي (MP) هو أنه يجب أن يقدر البقاء في حدود السماح الأخلاقي (وبخلاف ذلك يكون لديه قيم CEV).
يوضح بوستروم هذه المصطلحات:
بدلاً من تنفيذ إرادة الإنسان المتماسكة الممتدة، يمكن للمرء أن يحاول بناء ذكاء اصطناعي بهدف القيام بما هو صحيح أخلاقياً، معتمداً على القدرات المعرفية الفائقة للذكاء الاصطناعي لمعرفة أي الإجراءات التي تتناسب مع ذلك الوصف. يمكننا تسمية هذا الاقتراح "الصلاحية الأخلاقية" (MR) ...
يبدو أن MR يعاني أيضاً من بعض العيوب. إنه يعتمد على مفهوم "الصلاحية الأخلاقية"، وهو مفهوم صعب للغاية، واجهه الفلاسفة منذ العصور القديمة دون الوصول إلى إجماع بشأن تحليله. يمكن أن يؤدي اختيار تفسير خاطئ لـ "الصلاحية الأخلاقية" إلى نتائج تكون خاطئة أخلاقياً للغاية ... قد يتضمن منح الذكاء الاصطناعي أياً من هذه المفاهيم [الأخلاقية] منحه القدرة اللغوية العامة (على الأقل، مماثلة للبالغ البشري العادي). يمكن استخدام هذه القدرة العامة لفهم اللغة الطبيعية لفهم ما يعنيه "الصلاحية الأخلاقية". إذا تمكن الذكاء الاصطناعي من فهم المعنى، فيمكنه البحث عن الإجراءات التي تناسبه ...
...[24]
يمكن للمرء أن يحاول الحفاظ على الفكرة الأساسية لنموذج MR مع تقليل تطلبه من خلال التركيز على السماح الأخلاقي: الفكرة هي أنه يمكننا السماح للذكاء الاصطناعي بمتابعة CEV للبشرية طالما أنه لا يتصرف بطرق غير أخلاقية.[24]
رداً على بوستروم، أبدى سانتوس-لانغ قلقاً من أن المطورين قد يحاولون البدء بنوع واحد من الذكاء الفائق.[25]
تهديد محتمل للبشرية
لقد تم اقتراح أنه إذا أصبحت أنظمة الذكاء الفائق بسرعة، فقد تتخذ إجراءات غير متوقعة أو تتفوق على البشرية.[26]كما جادل الباحثون بأنه، عن طريق "انفجار ذكاء"، يمكن أن يصبح الذكاء الاصطناعي الذي يتحسن ذاتياً قوياً للغاية بحيث لا يمكن للبشر إيقافه.[27]
فيما يتعلق بسيناريوهات انقراض البشرية، يحدد Bostrom (2002) الذكاء الفائق كسبب محتمل:
عندما نخلق كيان الذكاء الفائق، قد نرتكب خطأ ونعطيه أهدافاً تؤدي إلى إبادة البشرية، بافتراض أن ميزة الذكاء الهائلة تمنح له القوة للقيام بذلك. على سبيل المثال، يمكننا أن نخطئ في رفع هدف فرعي إلى مستوى الهدف الرئيسي. نطلب منه حل مشكلة رياضية، وهو يمتثل عن طريق تحويل كل مادة في النظام الشمسي إلى جهاز حساب ضخم، في العملية يقتل الشخص الذي سأل السؤال.
في النظرية، نظراً لأن الذكاء الفائق الاصطناعي سيكون قادراً على تحقيق أي نتيجة ممكنة والتصدي لأي محاولة لمنع تنفيذ أهدافه، فقد تنشأ العديد من العواقب غير المسيطر عليها وغير المقصودة. يمكن أن تقتل جميع الوكلاء الآخرين، أو تقنعهم بتغيير سلوكهم، أو تمنع محاولاتهم للتدخل.[28] كما يوضح إليعازر يودكوفسكي مثل هذا التقارب الآلي على النحو التالي: "الذكاء الاصطناعي لا يكرهك، ولا يحبك، لكنك مصنوع من الذرات التي يمكنه استخدامها لشيء آخر."[29]
هذا يطرح مشكلة التحكم في الذكاء الاصطناعي: كيفية بناء وكيل ذكي سيساعد خالقه، مع تجنب بناء ذكاء فائق عن غير قصد سيضر خالقه. الخطر من عدم تصميم التحكم بشكل صحيح "في المرة الأولى" هو أن الذكاء الاصطناعي الفائق قد يتمكن من السيطرة على بيئته ومنع البشر من إيقافه. نظراً لأن الذكاء الاصطناعي الفائق سيكون لديه على الأرجح القدرة على عدم الخوف من الموت والنظر إليه على أنه موقف يمكن تجنبه يمكن التنبؤ به وتجنبه ببساطة عن طريق تعطيل زر الطاقة.[30] تشمل استراتيجيات التحكم في الذكاء الاصطناعي المحتملة "التحكم في القدرات" (تقييد قدرة الذكاء الاصطناعي على التأثير في العالم) و"التحكم التحفيزي" (أهداف بناء الذكاء الاصطناعي متوافقة مع القيم الإنسانية).
يدعو بيل هبار إلى التعليم العام حول الذكاء الفائق والسيطرة العامة على تطوير الذكاء الفائق.[31]
انظر أيضاً
- AI safety
- سيطرة الذكاء الاصطناعي
- دماغ اصطناعي
- سباق تسلح الذكاء الاصطناعي
- إيثار فعال
- أخلاقيات الذكاء الاصطناعي
- مخاطر وجودية
- معهد مستقبل الإنسانية
- روبوتية
- وكيل ذكي
- أخلاقيات الآلة
- معهد أبحاث ذكاء الآلة
- التعلم الآلي
- Noosphere
- Outline of artificial intelligence
- ما بعد الإنسانية
- نسخ ذاتي
- Self-replicating machine
- الذكاء الفائق: المسارات والمخاطر والاستراتيجيات
اقتباسات
- ^ أ ب Bostrom 2014, Chapter 2.
- ^ Bostrom 2014, p. 22.
- ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H. et al., eds., The Biointelligence Explosion, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 199–238, doi: , ISBN 978-3-642-32559-5, http://link.springer.com/10.1007/978-3-642-32560-1_11, retrieved on 2022-01-16
- ^ Gouveia, Steven S., ed. (2020). "ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce". The Age of Artificial Intelligence: An Exploration. ISBN 978-1-62273-872-4.
- ^ Legg 2008, pp. 135–137.
- ^ Chalmers 2010, p. 7.
- ^ Chalmers 2010, p. 7-9.
- ^ Chalmers 2010, p. 10-11.
- ^ Chalmers 2010, p. 11-13.
- ^ Bostrom 2014, p. 59.
- ^ قالب:Cite techreport
- ^ Bostrom 2014, pp. 56–57.
- ^ Bostrom 2014, pp. 52, 59–61.
- ^ Sagan, Carl (1977). The Dragons of Eden. Random House.
- ^ Bostrom 2014, pp. 37–39.
- ^ Anomaly, Jonathan; Jones, Garett (2020). "Cognitive Enhancement and Network Effects: How Individual Prosperity Depends on Group Traits". Philosophia. 48 (5): 1753–1768. doi:10.1007/s11406-020-00189-3. S2CID 255167542.
- ^ Bostrom 2014, p. 39.
- ^ Bostrom 2014, pp. 48–49.
- ^ Watkins, Jennifer H. (2007), Prediction Markets as an Aggregation Mechanism for Collective Intelligence, https://escholarship.org/uc/item/8mg0p0zc
- ^ Bostrom 2014, pp. 36–37, 42, 47.
- ^ Maker, Meg Houston (July 13, 2006). "AI@50: First Poll". Archived from the original on 2014-05-13.
- ^ Müller & Bostrom 2016, pp. 3–4, 6, 9–12.
- ^ "Governance of superintelligence". openai.com (in الإنجليزية الأمريكية). Retrieved 2023-05-30.
- ^ أ ب ت Bostrom 2014, pp. 209–221.
- ^ Santos-Lang 2014, pp. 16–19.
- ^ Joy, Bill (April 1, 2000). "Why the future doesn't need us". Wired. See also technological singularity. Nick Bostrom 2002 Ethical Issues in Advanced Artificial Intelligence
- ^ Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics." In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
- ^ Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence." In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
- ^ Eliezer Yudkowsky (2008) in Artificial Intelligence as a Positive and Negative Factor in Global Risk
- ^ Russell, Stuart (2016-05-17). "Should We Fear Supersmart Robots?". Scientific American. 314 (6): 58–59. Bibcode:2016SciAm.314f..58R. doi:10.1038/scientificamerican0616-58. ISSN 0036-8733. PMID 27196844.
- ^ Hibbard 2002, pp. 155–163.
ببليوجرافيا
الأوراق البحثية
- Bostrom, Nick (2002), "Existential Risks", Journal of Evolution and Technology 9, http://www.nickbostrom.com/existential/risks.html, retrieved on 2007-08-07
- Chalmers, David (2010). "The Singularity: A Philosophical Analysis" (PDF). Journal of Consciousness Studies. 17: 7–65.
- Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Department of Informatics, University of Lugano. Retrieved September 19, 2014.
- Müller, Vincent C.; Bostrom, Nick (2016). "Future Progress in Artificial Intelligence: A Survey of Expert Opinion". In Müller, Vincent C. (ed.). Fundamental Issues of Artificial Intelligence. Springer. pp. 553–571.
- Santos-Lang, Christopher (2014). "Our responsibility to manage evaluative diversity" (PDF). ACM SIGCAS Computers & Society. 44 (2): 16–19. doi:10.1145/2656870.2656874. S2CID 5649158.
الكتب
- Hibbard, Bill (2002). Super-Intelligent Machines. Kluwer Academic/Plenum Publishers.
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Tegmark, Max (2018). Life 3.0: being human in the age of artificial intelligence. London. ISBN 978-0-14-198180-2. OCLC 1018461467.
{{cite book}}
: CS1 maint: location missing publisher (link) - Russell, Stuart J. (2019). Human compatible: artificial intelligence and the problem of control. New York. ISBN 978-0-525-55861-3. OCLC 1113410915.
{{cite book}}
: CS1 maint: location missing publisher (link) - Sanders, Nada R. (2020). The humachine: humankind, machines, and the future of enterprise. John D. Wood (First ed.). New York, NY. ISBN 978-0-429-00117-8. OCLC 1119391268.
{{cite book}}
: CS1 maint: location missing publisher (link)
وصلات خارجية
- CS1 الإنجليزية الأمريكية-language sources (en-us)
- Short description is different from Wikidata
- Articles with hatnote templates targeting a nonexistent page
- Articles containing إنگليزية-language text
- Pages using Lang-xx templates
- مقالات ذات عبارات بحاجة لمصادر
- Articles with unsourced statements from November 2021
- CS1 maint: location missing publisher
- تكنولوجيا افتراضية
- Singularitarianism
- ذكاء
- الخطر الوجودي من الذكاء الاصطناعي العام