پایگاه خبری تحلیلی انتخاب (Entekhab.ir) : 
نیویورک پست نوشت: در سال ۲۰۲۳، «ایلیا سوتسکِوِر» یکی از همبنیانگذاران OpenAI، پیشنهاد ساخت یک پناهگاه آخرالزمانی را مطرح کرد تا از پژوهشگران ارشد پس از عرضه AGI (هوش مصنوعیای قدرتمندتر از انسان) محافظت کند.
به گزارش «انتخاب»؛ در یکی از جلسات داخلی، او بهطور غیررسمی گفت: «وقتی که ما داخل پناهگاه باشیم...»
همکارانش گیج شدند و پرسیدند آیا شوخی میکند؟ اما او کاملاً جدی بود.
ایدهاش چه بود؟ محافظت از دانشمندان کلیدی در برابر آشوب جهانیای که AGI ممکن است به راه بیندازد — مثل تنشهای ژئوپلیتیکی، رقابت برای قدرت، یا حتی خشونتهای فیزیکی
به گفته منابع آگاه، سوتسکِور اغلب از AGI با عنوان «ظهور» (rapture) یاد میکرد و معتقد بود نوعی پناهگاه برای بقا لازم خواهد بود.
اگرچه هیچوقت برنامه ساخت آن بهطور رسمی تدوین نشد، اما این ایده تبدیل شد به نمادی از ترس عمیقی که در میان رهبران OpenAI وجود داشت.
سوتسکِور بعدها تلاش کرد (که البته ناکام ماند) تا «سم آلتمن»، مدیرعامل شرکت را به دلیل نگرانیهای ایمنی، برکنار کند. او از آن زمان شرکت را ترک کرده — اما تنشها همچنان پابرجاست: مسابقه برای ساخت AGI آغاز شده و همه مطمئن نیستند که واقعاً آمادهایم.