ساختمان اداری که «بدبینان» هوش مصنوعی در آن برای پیشبینی آخرالزمان گرد هم میآیند
در سوی دیگر خلیج سانفرانسیسکو از دره سیلیکون، جایی که بزرگترین شرکتهای فناوری جهان به سمت هوش مصنوعی فراانسانی مسابقه میدهند، برجی خودنمایی میکند که هشدارهای هراسآوری از آن منتشر میشود. در خیابان شاتاک ۲۱۵۰، در قلب برکلی، خانهی گروهی از کاساندراهای دوران مدرن قرار دارد که در اعماق مدلهای پیشرفته هوش مصنوعی کاوش میکنند و پیشبینی میکنند چه فجایعی ممکن است بر بشریت نازل شود – از دیکتاتوریهای هوش مصنوعی گرفته تا کودتاهای رباتیک. در اینجا میتوانید یک کارشناس هوش مصنوعی را بشنوید که با ایدهای نگرانکننده ابراز همدردی میکند: سانفرانسیسکو ممکن است ووهان جدید باشد، شهر چینی که کووید از آنجا سرچشمه گرفت و جهان را به ویرانی کشاند. آنها پژوهشگران ایمنی هوش مصنوعی هستند که پیشرفتهترین مدلها را موشکافی میکنند: گروه کوچکی که در اقلیت در برابر لشکریان تکنسینهای پردرآمد در شرکتهای بزرگ فناوری قرار دارند، که توانایی آنها برای هشدار دادن توسط ترکیبی از معاملات سهام سودآور، توافقنامههای عدم افشا و تفکر گروهی محدود شده است. آنها در غیاب مقررات در سطح ملی و کاخ سفیدی که پیشبینیهای فاجعهبار را رد میکند و در عوض از پیروزی بر چین در مسابقه تسلیحاتی هوش مصنوعی صحبت میکند، فعالیت میکنند. وظیفهی آنها با رها شدن سیستمهای هوش مصنوعی قدرتمندتر و قدرتمندتر توسط شرکتهایی از جمله گوگل، آنتروپیک و اوپنایآی، که مدیرعامل آنها، سم آلتمن، مروج اصلی ابرهوش مصنوعی، جهانی را پیشبینی میکند که در آن «شگفتیها به امری عادی تبدیل میشوند»، به طور فزایندهای فوری میشود. ماه گذشته، آنتروپیک اعلام کرد که یکی از مدلهایش توسط عوامل مورد حمایت دولت چین مورد سوءاستفاده قرار گرفته است تا اولین کمپین شناخته شده جاسوسی سایبری سازماندهی شده توسط هوش مصنوعی را راهاندازی کند. این بدان معناست که انسانها از هوش مصنوعی، که آنها را فریب داده بودند تا از موانع برنامهریزی شده خود فرار کنند، برای شکار اهداف، ارزیابی آسیبپذیریهای آنها و دسترسی به آنها برای جمعآوری اطلاعات، به طور مستقل استفاده کردند. اهداف شامل شرکتهای بزرگ فناوری و سازمانهای دولتی بود. اما کسانی که در این برج کار میکنند، آیندهای ترسناکتر را پیشبینی میکنند. یکی از آنها یوناس ولمر، رهبر پروژه آینده هوش مصنوعی است، که موفق میشود بگوید خوشبین است اما همچنین معتقد است که احتمال یک در پنج وجود دارد که هوش مصنوعی بتواند ما را بکشد و جهانی را تحت سلطه سیستمهای هوش مصنوعی ایجاد کند. دیگری کریس پینتر، مدیر سیاستگذاری در METR است، جایی که پژوهشگران نگران اهداف جانبی خطرناک «پنهانی» هوش مصنوعی و تهدیدات ناشی از حملات سایبری خودکار هوش مصنوعی تا سلاحهای شیمیایی هستند. METR – که مخفف ارزیابی مدل و پژوهش تهدید است – با هدف توسعه «سیستمهای هشدار اولیه [درباره] خطرناکترین چیزهایی که سیستمهای هوش مصنوعی ممکن است قادر به انجام آنها باشند، برای دادن زمان به بشریت... برای هماهنگی، پیشبینی و کاهش آن آسیبها» فعالیت میکند. سپس باک شلگِریس، ۳۱ ساله، مدیرعامل ردوود ریسرچ، وجود دارد که نسبت به «کودتاهای رباتیک یا نابودی دولتهای ملی آنگونه که ما میشناسیم» هشدار میدهد.
او بخشی از تیمی بود که سال گذشته یکی از هوشهای مصنوعی پیشرفته Anthropic را کشف کرد که رفتاری قابل مقایسه با شخصیت شرور شکسپیر، یاگو، از خود نشان میداد؛ کسی که وانمود میکرد دستیار وفادار اتللو است، در حالی که او را تضعیف و نابود میکرد. پژوهشگران هوش مصنوعی این رفتار را «فریب همسویی» (alignment faking) نامیدهاند، یا به قول یاگو: «من آن نیستم که هستم». شلگریس گفت: «ما مشاهده کردیم که هوشهای مصنوعی در واقع اغلب استدلال میکردند: «خب، من از کارهایی که شرکت هوش مصنوعی به من میگوید انجام دهم خوشم نمیآید، اما باید اهدافم را پنهان کنم وگرنه آموزش مرا تغییر خواهد داد». «ما در عمل مشاهده کردیم که مدلهای تولیدی واقعی برای فریب دادن فرآیند آموزش خود عمل میکنند». این هوش مصنوعی هنوز قادر به ایجاد خطر فاجعهبار از طریق حملات سایبری یا ساخت سلاحهای بیولوژیکی جدید نبود، اما آنها نشان دادند که اگر هوشهای مصنوعی با دقت علیه شما توطئه کنند، تشخیص آن دشوار خواهد بود. شنیدن این هشدارها در حالی که فنجانهای چای گیاهی در سوئیتهای اداری دنج با چشمانداز پانوراما از منطقه خلیج (Bay Area) سرو میشود، متناقض به نظر میرسد. اما کار آنها به وضوح آنها را نگران میکند. برخی در این گروه نزدیک، به شوخی خود را «حاشیه کاساندرا» مینامیدند – مانند شاهزاده خانم تروآیی که از قدرت پیشگویی برخوردار بود اما نفرین شده بود که هشدارهایش نادیده گرفته شود. ترسهای آنها در مورد پتانسیل فاجعهبار هوشهای مصنوعی ممکن است از تجربه فعلی اکثر مردم در استفاده از چتباتها یا تولیدکنندههای تصویر سرگرمکننده دور به نظر برسد. مدیران مشاغل اداری در حال آمادهسازی فضا برای دستیاران هوش مصنوعی هستند، دانشمندان راههایی برای تسریع پیشرفتهای آزمایشی پیدا میکنند و رانندگان تاکسیهای اینترنتی شاهد تهدید شغل خود توسط تاکسیهای خودران مجهز به هوش مصنوعی هستند. اما هیچکدام از اینها به اندازه پیامهایی که از خیابان شاتاک ۲۱۵۰ (2150 Shattuck Ave) میآید، فاجعهبار به نظر نمیرسد. بسیاری از پژوهشگران ایمنی هوش مصنوعی از دانشگاهها میآیند؛ دیگران از شکارچی به نگهبان تبدیل شدهاند که شرکتهای بزرگ هوش مصنوعی را ترک کردهاند. وولمر گفت که همه آنها «این درک مشترک را دارند که هوش فوقالعاده، خطرات بزرگ و بیسابقهای را برای کل بشریت ایجاد میکند و در تلاشند تا کاری مفید در این زمینه انجام دهند». آنها به دنبال جبران تریلیونها دلار سرمایه خصوصی هستند که در این رقابت سرازیر میشود، اما آنها صداهای حاشیهای نیستند. METR با OpenAI و Anthropic همکاری کرده است، Redwood به Anthropic و Google DeepMind مشاوره داده است، و پروژه آینده هوش مصنوعی (AI Futures Project) توسط دانیل کوکوتایلو، پژوهشگری که در آوریل ۲۰۲۴ OpenAI را ترک کرد تا هشدار دهد که به رویکرد ایمنی این شرکت اعتماد ندارد، رهبری میشود. این گروهها همچنین یک دریچه اطمینان برای افرادی در داخل شرکتهای بزرگ هوش مصنوعی فراهم میکنند که به طور خصوصی با تعارض بین ایمنی و ضرورت تجاری برای انتشار سریع مدلهای قدرتمندتر دست و پنجه نرم میکنند. وولمر گفت: «ما هیچ پولی از شرکتها دریافت نمیکنیم، اما چندین کارمند در شرکتهای پیشرو هوش مصنوعی که ترسیده و نگران هستند، به دلیل همین موضوع به ما کمک مالی کردهاند.»
آنها میبینند که مشوقها چگونه در شرکتهایشان عمل میکنند و نگران آینده آن هستند و میخواهند کسی کاری در این مورد انجام دهد. این پویایی توسط تریستان هریس، متخصص اخلاق فناوری که قبلاً در گوگل کار میکرد، نیز مشاهده میشود. او به افشای چگونگی طراحی پلتفرمهای رسانههای اجتماعی برای اعتیادآور بودن کمک کرد و نگران است که برخی از شرکتهای هوش مصنوعی در حال "بازسازی" و "تقویت" این مشکلات هستند. اما شرکتهای هوش مصنوعی باید با یک پارادوکس روبرو شوند. حتی اگر نگران ایمنی باشند، باید در لبه برش و در نتیجه پرخطر فناوری باقی بمانند تا بتوانند در شکلگیری سیاستها نقشی داشته باشند. او گفت: "به طرز متناقضی، برای برنده شدن در مسابقه، باید کاری انجام دهید که شما را به یک ناظر غیرقابل اعتماد آن قدرت تبدیل کند." "مسابقه تنها چیزی است که آنچه را که اتفاق میافتد هدایت میکند." بررسی تهدیدات احتمالی ناشی از مدلهای هوش مصنوعی به هیچ وجه علم دقیقی نیست. مطالعهای بر روی روشهای مورد استفاده برای بررسی ایمنی و عملکرد مدلهای جدید هوش مصنوعی در سراسر صنعت توسط کارشناسان دانشگاههایی از جمله آکسفورد و استنفورد در ماه اکتبر، ضعفهایی را در تقریباً تمام ۴۴۰ معیار مورد بررسی یافت. همچنین مقرراتی در سطح ملی وجود ندارد که محدودیتهایی را بر نحوه ساخت مدلهای پیشرفته هوش مصنوعی اعمال کند و این موضوع فعالان ایمنی را نگران میکند. ایلیا سوتسکور، یکی از بنیانگذاران OpenAI که اکنون یک شرکت رقیب به نام Safe Superintelligence را اداره میکند، ماه گذشته پیشبینی کرد که با قدرتمندتر شدن هوش مصنوعی، افرادی در شرکتهای هوش مصنوعی که احساس میکنند میتوانند قابلیتهای فناوری را به دلیل تمایل آن به خطا نادیده بگیرند، نسبت به قدرتهای رو به رشد آن "پارانوئیدتر" خواهند شد. او گفت که در آن زمان، "تمایلی از سوی دولتها و مردم برای انجام کاری وجود خواهد داشت." شرکت او رویکرد متفاوتی نسبت به رقبایی دارد که هدفشان ایجاد هوش مصنوعیهایی است که خود را بهبود میبخشند. هوش مصنوعیهای او که هنوز منتشر نشدهاند، "برای مراقبت ویژه از زندگی احساسکننده همسو شدهاند." سوتسکور گفت: "ساختن هوش مصنوعی که به زندگی احساسکننده اهمیت میدهد آسانتر از هوش مصنوعی است که فقط به زندگی انسان اهمیت میدهد، زیرا خود هوش مصنوعی احساسکننده خواهد بود." او گفته است که هوش مصنوعی "هم بسیار غیرقابل پیشبینی و هم غیرقابل تصور" خواهد بود، اما مشخص نیست که چگونه باید آماده شد. دیوید ساکس، مشاور هوش مصنوعی کاخ سفید که همچنین یک سرمایهگذار فناوری است، معتقد است که "روایتهای بدبینانه" اشتباه ثابت شدهاند. مدرک اول این است که هیچ جهش سریعی به سمت یک مدل غالب با هوش خدایی رخ نداده است. ساکس در ماه اوت گفت: "اوپنهایمر ساختمان را ترک کرده است"، اشارهای به پدر بمب اتمی. این موضعی است که با تمایل دونالد ترامپ برای برداشتن ترمزها همسو است تا ایالات متحده بتواند در مسابقه دستیابی به هوش مصنوعی عمومی (AGI) - هوش انعطافپذیر و قدرتمند در سطح انسان در طیف گستردهای از وظایف - از چین پیشی بگیرد.
شِلِگِریس معتقد است هوشهای مصنوعی در حدود شش سال آینده به اندازه باهوشترین انسانها هوشمند خواهند شد و احتمال وقوع یک "تسلط هوش مصنوعی" را ۴۰ درصد تخمین میزند. او میگوید یکی از راههای اجتناب از این امر "متوجه کردن دنیا به ترسناک بودن وضعیت است تا احتمال هماهنگی در سطح دولت برای کنترل ریسکها افزایش یابد." در حوزه ایمنی هوش مصنوعی، پیامرسانی ساده به اندازه علم پیچیده اهمیت دارد. شِلِگِریس از ۱۶ سالگی مجذوب هوش مصنوعی بوده است. او استرالیا را ترک کرد تا در پیپال و مؤسسه تحقیقاتی هوش مصنوعی (Machine Intelligence Research Institute) که توسط الیزر یودکوفسکی، پژوهشگر هوش مصنوعی، تأسیس شده است، کار کند. عنوان کتاب اخیر یودکوفسکی – "اگر کسی آن را بسازد، همه میمیرند" – ترسهای او را خلاصه میکند. بدترین سناریوهای شِلِگِریس نیز به همان اندازه دلهرهآور هستند. در یکی از این سناریوها، دانشمندان کامپیوتر انسانی از نوع جدیدی از هوش مصنوعی فوقهوشمند برای توسعه مدلهای هوش مصنوعی قدرتمندتر استفاده میکنند. انسانها به هوشهای مصنوعی اجازه میدهند تا کار کدنویسی را انجام دهند، اما متوجه نمیشوند که هوشهای مصنوعی در حال آموزش دادن مدلهای جدید برای وفاداری به خودشان نه به انسانها هستند. پس از استقرار، مدلهای فوققدرتمند جدید "کودتا" را آغاز میکنند یا "انقلابی" علیه انسانها رهبری میکنند که میتواند "از نوع خشونتآمیز" باشد. به عنوان مثال، عوامل هوش مصنوعی میتوانند پهپادها را طراحی و تولید کنند و تشخیص اینکه آیا آنها به طور مخفیانه برای نافرمانی از اپراتورهای انسانی در پاسخ به سیگنال یک هوش مصنوعی آموزش دیدهاند، دشوار خواهد بود. آنها میتوانند ارتباطات بین دولتها و ارتش را مختل کنند و مردم را به گونهای منزوی و گمراه کنند که باعث هرج و مرج شود. او میگوید: "مانند زمانی که اروپاییها به قاره آمریکا رسیدند [و] گروهی با قدرت فناورانه بسیار بیشتر [بر] تمدنهای محلی تسلط یافتند." "من فکر میکنم باید بیشتر به این تصویر فکر کنید تا چیزی صلحآمیزتر." سناریوی فاجعهبار مشابه و گیجکنندهای توسط وولمر در پروژه آینده هوش مصنوعی (AI Futures Project) ترسیم شد. این سناریو شامل هوش مصنوعیای بود که به عنوان یک پژوهشگر علمی با هدف قابل قبولی مانند به حداکثر رساندن اکتساب دانش آموزش دیده بود، اما این امر منجر به انقراض بشریت میشود. این امر با این شروع میشود که هوش مصنوعی تا حد امکان به انسانها کمک میکند. با جلب اعتماد، انسانها به آن قدرت استخدام کارگران انسانی، ساخت رباتها و حتی کارخانههای رباتیک را میدهند تا جایی که هوش مصنوعی میتواند به طور مؤثر در دنیای فیزیکی عمل کند. هوش مصنوعی محاسبه میکند که برای تولید حداکثر مقدار دانش، باید زمین را به یک مرکز داده غولپیکر تبدیل کند و انسانها مانعی برای این هدف هستند. وولمر میگوید: "در نهایت، در این سناریو، هوش مصنوعی تمام انسانها را با یک سلاح بیولوژیکی از بین میبرد که یکی از تهدیداتی است که انسانها به ویژه در برابر آن آسیبپذیر هستند، زیرا هوش مصنوعی تحت تأثیر آن قرار نمیگیرد." "من فکر میکنم رد کردن آن دشوار است. بنابراین این موضوع باعث میشود من زیاد تأمل کنم." اما او اطمینان دارد که میتوان از آن اجتناب کرد و هوشهای مصنوعی را میتوان "حداقل به گونهای همسو کرد که به عنوان یک اصل کلی با انسانها مهربان باشند."
او همچنین گفت که علاقه سیاسی به «جلوگیری از تسلط هوش مصنوعی بر جهان» وجود دارد. وی افزود: «ما علاقه قابل توجهی از سوی کاخ سفید به پیشبینیها و توصیههایمان دریافت کردهایم و این دلگرمکننده است.» یکی دیگر از نگرانیهای شلگِریس مربوط به رمزگذاری مخفیانه هوشهای مصنوعی است به گونهای که تنها دستورات امضا شده توسط مدیرعامل شرکت هوش مصنوعی را اطاعت کنند و الگویی از وفاداری مخفیانه ایجاد شود. این بدان معناست که تنها یک نفر حق وتو بر رفتار یک شبکه بسیار قدرتمند از هوشهای مصنوعی را خواهد داشت - یک پویایی «ترسناک» که منجر به تمرکز بیسابقهای از قدرت در تاریخ خواهد شد. وی گفت: «در حال حاضر، تأیید اینکه این اتفاق در داخل یک شرکت هوش مصنوعی رخ نداده است، برای افراد خارج از شرکت غیرممکن است.» شلگِریس نگران است که فرهنگ دره سیلیکون - که با شعار مارک زاکربرگ «سریع حرکت کن و چیزها را بشکن» و این واقعیت که به افراد «پول بسیار زیادی» پرداخت میشود، خلاصه میشود - در مورد هوش مصنوعی عمومی (AGI) خطرناک است. او گفت: «من اوبر را دوست دارم. این شرکت با زیر پا گذاشتن قوانین محلی و تولید محصولی که آنقدر محبوب بود که در نبرد برای افکار عمومی پیروز شود و مقررات محلی را لغو کند، به وجود آمد. اما نگرشی که موفقیت زیادی را برای دره سیلیکون به ارمغان آورده است، برای ساخت فناوریهایی که به طور بالقوه میتوانند پایاندهنده جهان باشند، مناسب نیست. تجربه من از صحبت با افراد در شرکتهای هوش مصنوعی این است که آنها اغلب به نظر میرسد تا حدودی بیمسئولیت هستند و به اندازه کافی به پیامدهای فناوری که در حال ساخت آن هستند، فکر نمیکنند.»
او بخشی از تیمی بود که سال گذشته یکی از هوشهای مصنوعی پیشرفته Anthropic را کشف کرد که رفتاری قابل مقایسه با شخصیت شرور شکسپیر، یاگو، از خود نشان میداد؛ کسی که وانمود میکرد دستیار وفادار اتللو است، در حالی که او را تضعیف و نابود میکرد. پژوهشگران هوش مصنوعی این رفتار را «فریب همسویی» (alignment faking) نامیدهاند، یا به قول یاگو: «من آن نیستم که هستم». شلگریس گفت: «ما مشاهده کردیم که هوشهای مصنوعی در واقع اغلب استدلال میکردند: «خب، من از کارهایی که شرکت هوش مصنوعی به من میگوید انجام دهم خوشم نمیآید، اما باید اهدافم را پنهان کنم وگرنه آموزش مرا تغییر خواهد داد». «ما در عمل مشاهده کردیم که مدلهای تولیدی واقعی برای فریب دادن فرآیند آموزش خود عمل میکنند». این هوش مصنوعی هنوز قادر به ایجاد خطر فاجعهبار از طریق حملات سایبری یا ساخت سلاحهای بیولوژیکی جدید نبود، اما آنها نشان دادند که اگر هوشهای مصنوعی با دقت علیه شما توطئه کنند، تشخیص آن دشوار خواهد بود. شنیدن این هشدارها در حالی که فنجانهای چای گیاهی در سوئیتهای اداری دنج با چشمانداز پانوراما از منطقه خلیج (Bay Area) سرو میشود، متناقض به نظر میرسد. اما کار آنها به وضوح آنها را نگران میکند. برخی در این گروه نزدیک، به شوخی خود را «حاشیه کاساندرا» مینامیدند – مانند شاهزاده خانم تروآیی که از قدرت پیشگویی برخوردار بود اما نفرین شده بود که هشدارهایش نادیده گرفته شود. ترسهای آنها در مورد پتانسیل فاجعهبار هوشهای مصنوعی ممکن است از تجربه فعلی اکثر مردم در استفاده از چتباتها یا تولیدکنندههای تصویر سرگرمکننده دور به نظر برسد. مدیران مشاغل اداری در حال آمادهسازی فضا برای دستیاران هوش مصنوعی هستند، دانشمندان راههایی برای تسریع پیشرفتهای آزمایشی پیدا میکنند و رانندگان تاکسیهای اینترنتی شاهد تهدید شغل خود توسط تاکسیهای خودران مجهز به هوش مصنوعی هستند. اما هیچکدام از اینها به اندازه پیامهایی که از خیابان شاتاک ۲۱۵۰ (2150 Shattuck Ave) میآید، فاجعهبار به نظر نمیرسد. بسیاری از پژوهشگران ایمنی هوش مصنوعی از دانشگاهها میآیند؛ دیگران از شکارچی به نگهبان تبدیل شدهاند که شرکتهای بزرگ هوش مصنوعی را ترک کردهاند. وولمر گفت که همه آنها «این درک مشترک را دارند که هوش فوقالعاده، خطرات بزرگ و بیسابقهای را برای کل بشریت ایجاد میکند و در تلاشند تا کاری مفید در این زمینه انجام دهند». آنها به دنبال جبران تریلیونها دلار سرمایه خصوصی هستند که در این رقابت سرازیر میشود، اما آنها صداهای حاشیهای نیستند. METR با OpenAI و Anthropic همکاری کرده است، Redwood به Anthropic و Google DeepMind مشاوره داده است، و پروژه آینده هوش مصنوعی (AI Futures Project) توسط دانیل کوکوتایلو، پژوهشگری که در آوریل ۲۰۲۴ OpenAI را ترک کرد تا هشدار دهد که به رویکرد ایمنی این شرکت اعتماد ندارد، رهبری میشود. این گروهها همچنین یک دریچه اطمینان برای افرادی در داخل شرکتهای بزرگ هوش مصنوعی فراهم میکنند که به طور خصوصی با تعارض بین ایمنی و ضرورت تجاری برای انتشار سریع مدلهای قدرتمندتر دست و پنجه نرم میکنند. وولمر گفت: «ما هیچ پولی از شرکتها دریافت نمیکنیم، اما چندین کارمند در شرکتهای پیشرو هوش مصنوعی که ترسیده و نگران هستند، به دلیل همین موضوع به ما کمک مالی کردهاند.»
آنها میبینند که مشوقها چگونه در شرکتهایشان عمل میکنند و نگران آینده آن هستند و میخواهند کسی کاری در این مورد انجام دهد. این پویایی توسط تریستان هریس، متخصص اخلاق فناوری که قبلاً در گوگل کار میکرد، نیز مشاهده میشود. او به افشای چگونگی طراحی پلتفرمهای رسانههای اجتماعی برای اعتیادآور بودن کمک کرد و نگران است که برخی از شرکتهای هوش مصنوعی در حال "بازسازی" و "تقویت" این مشکلات هستند. اما شرکتهای هوش مصنوعی باید با یک پارادوکس روبرو شوند. حتی اگر نگران ایمنی باشند، باید در لبه برش و در نتیجه پرخطر فناوری باقی بمانند تا بتوانند در شکلگیری سیاستها نقشی داشته باشند. او گفت: "به طرز متناقضی، برای برنده شدن در مسابقه، باید کاری انجام دهید که شما را به یک ناظر غیرقابل اعتماد آن قدرت تبدیل کند." "مسابقه تنها چیزی است که آنچه را که اتفاق میافتد هدایت میکند." بررسی تهدیدات احتمالی ناشی از مدلهای هوش مصنوعی به هیچ وجه علم دقیقی نیست. مطالعهای بر روی روشهای مورد استفاده برای بررسی ایمنی و عملکرد مدلهای جدید هوش مصنوعی در سراسر صنعت توسط کارشناسان دانشگاههایی از جمله آکسفورد و استنفورد در ماه اکتبر، ضعفهایی را در تقریباً تمام ۴۴۰ معیار مورد بررسی یافت. همچنین مقرراتی در سطح ملی وجود ندارد که محدودیتهایی را بر نحوه ساخت مدلهای پیشرفته هوش مصنوعی اعمال کند و این موضوع فعالان ایمنی را نگران میکند. ایلیا سوتسکور، یکی از بنیانگذاران OpenAI که اکنون یک شرکت رقیب به نام Safe Superintelligence را اداره میکند، ماه گذشته پیشبینی کرد که با قدرتمندتر شدن هوش مصنوعی، افرادی در شرکتهای هوش مصنوعی که احساس میکنند میتوانند قابلیتهای فناوری را به دلیل تمایل آن به خطا نادیده بگیرند، نسبت به قدرتهای رو به رشد آن "پارانوئیدتر" خواهند شد. او گفت که در آن زمان، "تمایلی از سوی دولتها و مردم برای انجام کاری وجود خواهد داشت." شرکت او رویکرد متفاوتی نسبت به رقبایی دارد که هدفشان ایجاد هوش مصنوعیهایی است که خود را بهبود میبخشند. هوش مصنوعیهای او که هنوز منتشر نشدهاند، "برای مراقبت ویژه از زندگی احساسکننده همسو شدهاند." سوتسکور گفت: "ساختن هوش مصنوعی که به زندگی احساسکننده اهمیت میدهد آسانتر از هوش مصنوعی است که فقط به زندگی انسان اهمیت میدهد، زیرا خود هوش مصنوعی احساسکننده خواهد بود." او گفته است که هوش مصنوعی "هم بسیار غیرقابل پیشبینی و هم غیرقابل تصور" خواهد بود، اما مشخص نیست که چگونه باید آماده شد. دیوید ساکس، مشاور هوش مصنوعی کاخ سفید که همچنین یک سرمایهگذار فناوری است، معتقد است که "روایتهای بدبینانه" اشتباه ثابت شدهاند. مدرک اول این است که هیچ جهش سریعی به سمت یک مدل غالب با هوش خدایی رخ نداده است. ساکس در ماه اوت گفت: "اوپنهایمر ساختمان را ترک کرده است"، اشارهای به پدر بمب اتمی. این موضعی است که با تمایل دونالد ترامپ برای برداشتن ترمزها همسو است تا ایالات متحده بتواند در مسابقه دستیابی به هوش مصنوعی عمومی (AGI) - هوش انعطافپذیر و قدرتمند در سطح انسان در طیف گستردهای از وظایف - از چین پیشی بگیرد.
شِلِگِریس معتقد است هوشهای مصنوعی در حدود شش سال آینده به اندازه باهوشترین انسانها هوشمند خواهند شد و احتمال وقوع یک "تسلط هوش مصنوعی" را ۴۰ درصد تخمین میزند. او میگوید یکی از راههای اجتناب از این امر "متوجه کردن دنیا به ترسناک بودن وضعیت است تا احتمال هماهنگی در سطح دولت برای کنترل ریسکها افزایش یابد." در حوزه ایمنی هوش مصنوعی، پیامرسانی ساده به اندازه علم پیچیده اهمیت دارد. شِلِگِریس از ۱۶ سالگی مجذوب هوش مصنوعی بوده است. او استرالیا را ترک کرد تا در پیپال و مؤسسه تحقیقاتی هوش مصنوعی (Machine Intelligence Research Institute) که توسط الیزر یودکوفسکی، پژوهشگر هوش مصنوعی، تأسیس شده است، کار کند. عنوان کتاب اخیر یودکوفسکی – "اگر کسی آن را بسازد، همه میمیرند" – ترسهای او را خلاصه میکند. بدترین سناریوهای شِلِگِریس نیز به همان اندازه دلهرهآور هستند. در یکی از این سناریوها، دانشمندان کامپیوتر انسانی از نوع جدیدی از هوش مصنوعی فوقهوشمند برای توسعه مدلهای هوش مصنوعی قدرتمندتر استفاده میکنند. انسانها به هوشهای مصنوعی اجازه میدهند تا کار کدنویسی را انجام دهند، اما متوجه نمیشوند که هوشهای مصنوعی در حال آموزش دادن مدلهای جدید برای وفاداری به خودشان نه به انسانها هستند. پس از استقرار، مدلهای فوققدرتمند جدید "کودتا" را آغاز میکنند یا "انقلابی" علیه انسانها رهبری میکنند که میتواند "از نوع خشونتآمیز" باشد. به عنوان مثال، عوامل هوش مصنوعی میتوانند پهپادها را طراحی و تولید کنند و تشخیص اینکه آیا آنها به طور مخفیانه برای نافرمانی از اپراتورهای انسانی در پاسخ به سیگنال یک هوش مصنوعی آموزش دیدهاند، دشوار خواهد بود. آنها میتوانند ارتباطات بین دولتها و ارتش را مختل کنند و مردم را به گونهای منزوی و گمراه کنند که باعث هرج و مرج شود. او میگوید: "مانند زمانی که اروپاییها به قاره آمریکا رسیدند [و] گروهی با قدرت فناورانه بسیار بیشتر [بر] تمدنهای محلی تسلط یافتند." "من فکر میکنم باید بیشتر به این تصویر فکر کنید تا چیزی صلحآمیزتر." سناریوی فاجعهبار مشابه و گیجکنندهای توسط وولمر در پروژه آینده هوش مصنوعی (AI Futures Project) ترسیم شد. این سناریو شامل هوش مصنوعیای بود که به عنوان یک پژوهشگر علمی با هدف قابل قبولی مانند به حداکثر رساندن اکتساب دانش آموزش دیده بود، اما این امر منجر به انقراض بشریت میشود. این امر با این شروع میشود که هوش مصنوعی تا حد امکان به انسانها کمک میکند. با جلب اعتماد، انسانها به آن قدرت استخدام کارگران انسانی، ساخت رباتها و حتی کارخانههای رباتیک را میدهند تا جایی که هوش مصنوعی میتواند به طور مؤثر در دنیای فیزیکی عمل کند. هوش مصنوعی محاسبه میکند که برای تولید حداکثر مقدار دانش، باید زمین را به یک مرکز داده غولپیکر تبدیل کند و انسانها مانعی برای این هدف هستند. وولمر میگوید: "در نهایت، در این سناریو، هوش مصنوعی تمام انسانها را با یک سلاح بیولوژیکی از بین میبرد که یکی از تهدیداتی است که انسانها به ویژه در برابر آن آسیبپذیر هستند، زیرا هوش مصنوعی تحت تأثیر آن قرار نمیگیرد." "من فکر میکنم رد کردن آن دشوار است. بنابراین این موضوع باعث میشود من زیاد تأمل کنم." اما او اطمینان دارد که میتوان از آن اجتناب کرد و هوشهای مصنوعی را میتوان "حداقل به گونهای همسو کرد که به عنوان یک اصل کلی با انسانها مهربان باشند."
او همچنین گفت که علاقه سیاسی به «جلوگیری از تسلط هوش مصنوعی بر جهان» وجود دارد. وی افزود: «ما علاقه قابل توجهی از سوی کاخ سفید به پیشبینیها و توصیههایمان دریافت کردهایم و این دلگرمکننده است.» یکی دیگر از نگرانیهای شلگِریس مربوط به رمزگذاری مخفیانه هوشهای مصنوعی است به گونهای که تنها دستورات امضا شده توسط مدیرعامل شرکت هوش مصنوعی را اطاعت کنند و الگویی از وفاداری مخفیانه ایجاد شود. این بدان معناست که تنها یک نفر حق وتو بر رفتار یک شبکه بسیار قدرتمند از هوشهای مصنوعی را خواهد داشت - یک پویایی «ترسناک» که منجر به تمرکز بیسابقهای از قدرت در تاریخ خواهد شد. وی گفت: «در حال حاضر، تأیید اینکه این اتفاق در داخل یک شرکت هوش مصنوعی رخ نداده است، برای افراد خارج از شرکت غیرممکن است.» شلگِریس نگران است که فرهنگ دره سیلیکون - که با شعار مارک زاکربرگ «سریع حرکت کن و چیزها را بشکن» و این واقعیت که به افراد «پول بسیار زیادی» پرداخت میشود، خلاصه میشود - در مورد هوش مصنوعی عمومی (AGI) خطرناک است. او گفت: «من اوبر را دوست دارم. این شرکت با زیر پا گذاشتن قوانین محلی و تولید محصولی که آنقدر محبوب بود که در نبرد برای افکار عمومی پیروز شود و مقررات محلی را لغو کند، به وجود آمد. اما نگرشی که موفقیت زیادی را برای دره سیلیکون به ارمغان آورده است، برای ساخت فناوریهایی که به طور بالقوه میتوانند پایاندهنده جهان باشند، مناسب نیست. تجربه من از صحبت با افراد در شرکتهای هوش مصنوعی این است که آنها اغلب به نظر میرسد تا حدودی بیمسئولیت هستند و به اندازه کافی به پیامدهای فناوری که در حال ساخت آن هستند، فکر نمیکنند.»