Nevertheless, researchers have experienced an obstacle in studying human extinction as humanity has actually never been diminished during all of recorded history. مع ذلك، فقد عانى الباحثون من عقبة في دراسة الانقراض البشري لأن البشرية لم تتناقص أبدا في كل التاريخ المسجل.
"Existential risks" are risks that threaten the entire future of humanity, whether by causing human extinction or by otherwise permanently crippling human progress. "المخاطر الوجودية" هي المخاطر التي تُهدد مستقبل الإنسانية، سواء عن طريق التسبب في انقراض البشرية أو تعويق التقدم البشري بشكل دائم.
Such a planet-wide disaster need not result in human extinction if the human race were to be able to colonise additional planets before the disaster. لن يؤدي وقوع هكذا كوارث يمتد تأثيرها على الكوكب بأسره لانقراض البشر في حال استطاع الجنس البشري استعمار كواكب أخرى قبل حلول هذه الكوارث.
The likelihood of human extinction in the future by wholly natural scenarios, such as a meteorite impact or large-scale volcanism, is generally considered to be extremely low. يُعتبر احتمال انقراض البشرية في المستقبل القريب من خلال سيناريوهات عديدة من قبيل النيازك أو البراكين احتمالا ضعيفا جدا بل يكاد ينعدم.
Existential risk from artificial general intelligence is the hypothesis that substantial progress in artificial general intelligence (AGI) could someday result in human extinction or some other unrecoverable global catastrophe. (يوليو 2018) الخطر الأساسي من وجود الذكاء الاصطناعي العام يرجع إلى الفرضية القائلة أن التقدم الكبير في الذكاء الاصطناعي العام قد يؤدي إلى الانقراض البشري أو إلى كارثة عالمية غير قابلة للاسترداد.