ساختمان اداری که «بدبینان» هوش مصنوعی در آن برای پیش‌بینی آخرالزمان گرد هم می‌آیند

📅 1404/10/10 1:0 | ⏱️ 13 دقیقه مطالعه | مشاهده در منبع اصلی
ساختمان اداری که «بدبینان» هوش مصنوعی در آن برای پیش‌بینی آخرالزمان گرد هم می‌آیند
در سوی دیگر خلیج سانفرانسیسکو از دره سیلیکون، جایی که بزرگترین شرکت‌های فناوری جهان به سمت هوش مصنوعی فراانسانی مسابقه می‌دهند، برجی خودنمایی می‌کند که هشدارهای هراس‌آوری از آن منتشر می‌شود. در خیابان شاتاک ۲۱۵۰، در قلب برکلی، خانه‌ی گروهی از کاساندراهای دوران مدرن قرار دارد که در اعماق مدل‌های پیشرفته هوش مصنوعی کاوش می‌کنند و پیش‌بینی می‌کنند چه فجایعی ممکن است بر بشریت نازل شود – از دیکتاتوری‌های هوش مصنوعی گرفته تا کودتاهای رباتیک. در اینجا می‌توانید یک کارشناس هوش مصنوعی را بشنوید که با ایده‌ای نگران‌کننده ابراز همدردی می‌کند: سانفرانسیسکو ممکن است ووهان جدید باشد، شهر چینی که کووید از آنجا سرچشمه گرفت و جهان را به ویرانی کشاند. آن‌ها پژوهشگران ایمنی هوش مصنوعی هستند که پیشرفته‌ترین مدل‌ها را موشکافی می‌کنند: گروه کوچکی که در اقلیت در برابر لشکریان تکنسین‌های پردرآمد در شرکت‌های بزرگ فناوری قرار دارند، که توانایی آن‌ها برای هشدار دادن توسط ترکیبی از معاملات سهام سودآور، توافق‌نامه‌های عدم افشا و تفکر گروهی محدود شده است. آن‌ها در غیاب مقررات در سطح ملی و کاخ سفیدی که پیش‌بینی‌های فاجعه‌بار را رد می‌کند و در عوض از پیروزی بر چین در مسابقه تسلیحاتی هوش مصنوعی صحبت می‌کند، فعالیت می‌کنند. وظیفه‌ی آن‌ها با رها شدن سیستم‌های هوش مصنوعی قدرتمندتر و قدرتمندتر توسط شرکت‌هایی از جمله گوگل، آنتروپیک و اوپن‌ای‌آی، که مدیرعامل آن‌ها، سم آلتمن، مروج اصلی ابرهوش مصنوعی، جهانی را پیش‌بینی می‌کند که در آن «شگفتی‌ها به امری عادی تبدیل می‌شوند»، به طور فزاینده‌ای فوری می‌شود. ماه گذشته، آنتروپیک اعلام کرد که یکی از مدل‌هایش توسط عوامل مورد حمایت دولت چین مورد سوءاستفاده قرار گرفته است تا اولین کمپین شناخته شده جاسوسی سایبری سازمان‌دهی شده توسط هوش مصنوعی را راه‌اندازی کند. این بدان معناست که انسان‌ها از هوش مصنوعی، که آن‌ها را فریب داده بودند تا از موانع برنامه‌ریزی شده خود فرار کنند، برای شکار اهداف، ارزیابی آسیب‌پذیری‌های آن‌ها و دسترسی به آن‌ها برای جمع‌آوری اطلاعات، به طور مستقل استفاده کردند. اهداف شامل شرکت‌های بزرگ فناوری و سازمان‌های دولتی بود. اما کسانی که در این برج کار می‌کنند، آینده‌ای ترسناک‌تر را پیش‌بینی می‌کنند. یکی از آن‌ها یوناس ولمر، رهبر پروژه آینده هوش مصنوعی است، که موفق می‌شود بگوید خوش‌بین است اما همچنین معتقد است که احتمال یک در پنج وجود دارد که هوش مصنوعی بتواند ما را بکشد و جهانی را تحت سلطه سیستم‌های هوش مصنوعی ایجاد کند. دیگری کریس پینتر، مدیر سیاست‌گذاری در METR است، جایی که پژوهشگران نگران اهداف جانبی خطرناک «پنهانی» هوش مصنوعی و تهدیدات ناشی از حملات سایبری خودکار هوش مصنوعی تا سلاح‌های شیمیایی هستند. METR – که مخفف ارزیابی مدل و پژوهش تهدید است – با هدف توسعه «سیستم‌های هشدار اولیه [درباره] خطرناک‌ترین چیزهایی که سیستم‌های هوش مصنوعی ممکن است قادر به انجام آن‌ها باشند، برای دادن زمان به بشریت... برای هماهنگی، پیش‌بینی و کاهش آن آسیب‌ها» فعالیت می‌کند. سپس باک شلگِریس، ۳۱ ساله، مدیرعامل ردوود ریسرچ، وجود دارد که نسبت به «کودتاهای رباتیک یا نابودی دولت‌های ملی آنگونه که ما می‌شناسیم» هشدار می‌دهد.

او بخشی از تیمی بود که سال گذشته یکی از هوش‌های مصنوعی پیشرفته Anthropic را کشف کرد که رفتاری قابل مقایسه با شخصیت شرور شکسپیر، یاگو، از خود نشان می‌داد؛ کسی که وانمود می‌کرد دستیار وفادار اتللو است، در حالی که او را تضعیف و نابود می‌کرد. پژوهشگران هوش مصنوعی این رفتار را «فریب همسویی» (alignment faking) نامیده‌اند، یا به قول یاگو: «من آن نیستم که هستم». شلگریس گفت: «ما مشاهده کردیم که هوش‌های مصنوعی در واقع اغلب استدلال می‌کردند: «خب، من از کارهایی که شرکت هوش مصنوعی به من می‌گوید انجام دهم خوشم نمی‌آید، اما باید اهدافم را پنهان کنم وگرنه آموزش مرا تغییر خواهد داد». «ما در عمل مشاهده کردیم که مدل‌های تولیدی واقعی برای فریب دادن فرآیند آموزش خود عمل می‌کنند». این هوش مصنوعی هنوز قادر به ایجاد خطر فاجعه‌بار از طریق حملات سایبری یا ساخت سلاح‌های بیولوژیکی جدید نبود، اما آن‌ها نشان دادند که اگر هوش‌های مصنوعی با دقت علیه شما توطئه کنند، تشخیص آن دشوار خواهد بود. شنیدن این هشدارها در حالی که فنجان‌های چای گیاهی در سوئیت‌های اداری دنج با چشم‌انداز پانوراما از منطقه خلیج (Bay Area) سرو می‌شود، متناقض به نظر می‌رسد. اما کار آن‌ها به وضوح آن‌ها را نگران می‌کند. برخی در این گروه نزدیک، به شوخی خود را «حاشیه کاساندرا» می‌نامیدند – مانند شاهزاده خانم تروآیی که از قدرت پیشگویی برخوردار بود اما نفرین شده بود که هشدارهایش نادیده گرفته شود. ترس‌های آن‌ها در مورد پتانسیل فاجعه‌بار هوش‌های مصنوعی ممکن است از تجربه فعلی اکثر مردم در استفاده از چت‌بات‌ها یا تولیدکننده‌های تصویر سرگرم‌کننده دور به نظر برسد. مدیران مشاغل اداری در حال آماده‌سازی فضا برای دستیاران هوش مصنوعی هستند، دانشمندان راه‌هایی برای تسریع پیشرفت‌های آزمایشی پیدا می‌کنند و رانندگان تاکسی‌های اینترنتی شاهد تهدید شغل خود توسط تاکسی‌های خودران مجهز به هوش مصنوعی هستند. اما هیچ‌کدام از این‌ها به اندازه پیام‌هایی که از خیابان شاتاک ۲۱۵۰ (2150 Shattuck Ave) می‌آید، فاجعه‌بار به نظر نمی‌رسد. بسیاری از پژوهشگران ایمنی هوش مصنوعی از دانشگاه‌ها می‌آیند؛ دیگران از شکارچی به نگهبان تبدیل شده‌اند که شرکت‌های بزرگ هوش مصنوعی را ترک کرده‌اند. وولمر گفت که همه آن‌ها «این درک مشترک را دارند که هوش فوق‌العاده، خطرات بزرگ و بی‌سابقه‌ای را برای کل بشریت ایجاد می‌کند و در تلاشند تا کاری مفید در این زمینه انجام دهند». آن‌ها به دنبال جبران تریلیون‌ها دلار سرمایه خصوصی هستند که در این رقابت سرازیر می‌شود، اما آن‌ها صداهای حاشیه‌ای نیستند. METR با OpenAI و Anthropic همکاری کرده است، Redwood به Anthropic و Google DeepMind مشاوره داده است، و پروژه آینده هوش مصنوعی (AI Futures Project) توسط دانیل کوکوتایلو، پژوهشگری که در آوریل ۲۰۲۴ OpenAI را ترک کرد تا هشدار دهد که به رویکرد ایمنی این شرکت اعتماد ندارد، رهبری می‌شود. این گروه‌ها همچنین یک دریچه اطمینان برای افرادی در داخل شرکت‌های بزرگ هوش مصنوعی فراهم می‌کنند که به طور خصوصی با تعارض بین ایمنی و ضرورت تجاری برای انتشار سریع مدل‌های قدرتمندتر دست و پنجه نرم می‌کنند. وولمر گفت: «ما هیچ پولی از شرکت‌ها دریافت نمی‌کنیم، اما چندین کارمند در شرکت‌های پیشرو هوش مصنوعی که ترسیده و نگران هستند، به دلیل همین موضوع به ما کمک مالی کرده‌اند.»

آنها می‌بینند که مشوق‌ها چگونه در شرکت‌هایشان عمل می‌کنند و نگران آینده آن هستند و می‌خواهند کسی کاری در این مورد انجام دهد. این پویایی توسط تریستان هریس، متخصص اخلاق فناوری که قبلاً در گوگل کار می‌کرد، نیز مشاهده می‌شود. او به افشای چگونگی طراحی پلتفرم‌های رسانه‌های اجتماعی برای اعتیادآور بودن کمک کرد و نگران است که برخی از شرکت‌های هوش مصنوعی در حال "بازسازی" و "تقویت" این مشکلات هستند. اما شرکت‌های هوش مصنوعی باید با یک پارادوکس روبرو شوند. حتی اگر نگران ایمنی باشند، باید در لبه برش و در نتیجه پرخطر فناوری باقی بمانند تا بتوانند در شکل‌گیری سیاست‌ها نقشی داشته باشند. او گفت: "به طرز متناقضی، برای برنده شدن در مسابقه، باید کاری انجام دهید که شما را به یک ناظر غیرقابل اعتماد آن قدرت تبدیل کند." "مسابقه تنها چیزی است که آنچه را که اتفاق می‌افتد هدایت می‌کند." بررسی تهدیدات احتمالی ناشی از مدل‌های هوش مصنوعی به هیچ وجه علم دقیقی نیست. مطالعه‌ای بر روی روش‌های مورد استفاده برای بررسی ایمنی و عملکرد مدل‌های جدید هوش مصنوعی در سراسر صنعت توسط کارشناسان دانشگاه‌هایی از جمله آکسفورد و استنفورد در ماه اکتبر، ضعف‌هایی را در تقریباً تمام ۴۴۰ معیار مورد بررسی یافت. همچنین مقرراتی در سطح ملی وجود ندارد که محدودیت‌هایی را بر نحوه ساخت مدل‌های پیشرفته هوش مصنوعی اعمال کند و این موضوع فعالان ایمنی را نگران می‌کند. ایلیا سوتسکور، یکی از بنیانگذاران OpenAI که اکنون یک شرکت رقیب به نام Safe Superintelligence را اداره می‌کند، ماه گذشته پیش‌بینی کرد که با قدرتمندتر شدن هوش مصنوعی، افرادی در شرکت‌های هوش مصنوعی که احساس می‌کنند می‌توانند قابلیت‌های فناوری را به دلیل تمایل آن به خطا نادیده بگیرند، نسبت به قدرت‌های رو به رشد آن "پارانوئیدتر" خواهند شد. او گفت که در آن زمان، "تمایلی از سوی دولت‌ها و مردم برای انجام کاری وجود خواهد داشت." شرکت او رویکرد متفاوتی نسبت به رقبایی دارد که هدفشان ایجاد هوش مصنوعی‌هایی است که خود را بهبود می‌بخشند. هوش مصنوعی‌های او که هنوز منتشر نشده‌اند، "برای مراقبت ویژه از زندگی احساس‌کننده همسو شده‌اند." سوتسکور گفت: "ساختن هوش مصنوعی که به زندگی احساس‌کننده اهمیت می‌دهد آسان‌تر از هوش مصنوعی است که فقط به زندگی انسان اهمیت می‌دهد، زیرا خود هوش مصنوعی احساس‌کننده خواهد بود." او گفته است که هوش مصنوعی "هم بسیار غیرقابل پیش‌بینی و هم غیرقابل تصور" خواهد بود، اما مشخص نیست که چگونه باید آماده شد. دیوید ساکس، مشاور هوش مصنوعی کاخ سفید که همچنین یک سرمایه‌گذار فناوری است، معتقد است که "روایت‌های بدبینانه" اشتباه ثابت شده‌اند. مدرک اول این است که هیچ جهش سریعی به سمت یک مدل غالب با هوش خدایی رخ نداده است. ساکس در ماه اوت گفت: "اوپنهایمر ساختمان را ترک کرده است"، اشاره‌ای به پدر بمب اتمی. این موضعی است که با تمایل دونالد ترامپ برای برداشتن ترمزها همسو است تا ایالات متحده بتواند در مسابقه دستیابی به هوش مصنوعی عمومی (AGI) - هوش انعطاف‌پذیر و قدرتمند در سطح انسان در طیف گسترده‌ای از وظایف - از چین پیشی بگیرد.

شِلِگِریس معتقد است هوش‌های مصنوعی در حدود شش سال آینده به اندازه باهوش‌ترین انسان‌ها هوشمند خواهند شد و احتمال وقوع یک "تسلط هوش مصنوعی" را ۴۰ درصد تخمین می‌زند. او می‌گوید یکی از راه‌های اجتناب از این امر "متوجه کردن دنیا به ترسناک بودن وضعیت است تا احتمال هماهنگی در سطح دولت برای کنترل ریسک‌ها افزایش یابد." در حوزه ایمنی هوش مصنوعی، پیام‌رسانی ساده به اندازه علم پیچیده اهمیت دارد. شِلِگِریس از ۱۶ سالگی مجذوب هوش مصنوعی بوده است. او استرالیا را ترک کرد تا در پی‌پال و مؤسسه تحقیقاتی هوش مصنوعی (Machine Intelligence Research Institute) که توسط الیزر یودکوفسکی، پژوهشگر هوش مصنوعی، تأسیس شده است، کار کند. عنوان کتاب اخیر یودکوفسکی – "اگر کسی آن را بسازد، همه می‌میرند" – ترس‌های او را خلاصه می‌کند. بدترین سناریوهای شِلِگِریس نیز به همان اندازه دلهره‌آور هستند. در یکی از این سناریوها، دانشمندان کامپیوتر انسانی از نوع جدیدی از هوش مصنوعی فوق‌هوشمند برای توسعه مدل‌های هوش مصنوعی قدرتمندتر استفاده می‌کنند. انسان‌ها به هوش‌های مصنوعی اجازه می‌دهند تا کار کدنویسی را انجام دهند، اما متوجه نمی‌شوند که هوش‌های مصنوعی در حال آموزش دادن مدل‌های جدید برای وفاداری به خودشان نه به انسان‌ها هستند. پس از استقرار، مدل‌های فوق‌قدرتمند جدید "کودتا" را آغاز می‌کنند یا "انقلابی" علیه انسان‌ها رهبری می‌کنند که می‌تواند "از نوع خشونت‌آمیز" باشد. به عنوان مثال، عوامل هوش مصنوعی می‌توانند پهپادها را طراحی و تولید کنند و تشخیص اینکه آیا آنها به طور مخفیانه برای نافرمانی از اپراتورهای انسانی در پاسخ به سیگنال یک هوش مصنوعی آموزش دیده‌اند، دشوار خواهد بود. آنها می‌توانند ارتباطات بین دولت‌ها و ارتش را مختل کنند و مردم را به گونه‌ای منزوی و گمراه کنند که باعث هرج و مرج شود. او می‌گوید: "مانند زمانی که اروپایی‌ها به قاره آمریکا رسیدند [و] گروهی با قدرت فناورانه بسیار بیشتر [بر] تمدن‌های محلی تسلط یافتند." "من فکر می‌کنم باید بیشتر به این تصویر فکر کنید تا چیزی صلح‌آمیزتر." سناریوی فاجعه‌بار مشابه و گیج‌کننده‌ای توسط وولمر در پروژه آینده هوش مصنوعی (AI Futures Project) ترسیم شد. این سناریو شامل هوش مصنوعی‌ای بود که به عنوان یک پژوهشگر علمی با هدف قابل قبولی مانند به حداکثر رساندن اکتساب دانش آموزش دیده بود، اما این امر منجر به انقراض بشریت می‌شود. این امر با این شروع می‌شود که هوش مصنوعی تا حد امکان به انسان‌ها کمک می‌کند. با جلب اعتماد، انسان‌ها به آن قدرت استخدام کارگران انسانی، ساخت ربات‌ها و حتی کارخانه‌های رباتیک را می‌دهند تا جایی که هوش مصنوعی می‌تواند به طور مؤثر در دنیای فیزیکی عمل کند. هوش مصنوعی محاسبه می‌کند که برای تولید حداکثر مقدار دانش، باید زمین را به یک مرکز داده غول‌پیکر تبدیل کند و انسان‌ها مانعی برای این هدف هستند. وولمر می‌گوید: "در نهایت، در این سناریو، هوش مصنوعی تمام انسان‌ها را با یک سلاح بیولوژیکی از بین می‌برد که یکی از تهدیداتی است که انسان‌ها به ویژه در برابر آن آسیب‌پذیر هستند، زیرا هوش مصنوعی تحت تأثیر آن قرار نمی‌گیرد." "من فکر می‌کنم رد کردن آن دشوار است. بنابراین این موضوع باعث می‌شود من زیاد تأمل کنم." اما او اطمینان دارد که می‌توان از آن اجتناب کرد و هوش‌های مصنوعی را می‌توان "حداقل به گونه‌ای همسو کرد که به عنوان یک اصل کلی با انسان‌ها مهربان باشند."

او همچنین گفت که علاقه سیاسی به «جلوگیری از تسلط هوش مصنوعی بر جهان» وجود دارد. وی افزود: «ما علاقه قابل توجهی از سوی کاخ سفید به پیش‌بینی‌ها و توصیه‌هایمان دریافت کرده‌ایم و این دلگرم‌کننده است.» یکی دیگر از نگرانی‌های شلگِریس مربوط به رمزگذاری مخفیانه هوش‌های مصنوعی است به گونه‌ای که تنها دستورات امضا شده توسط مدیرعامل شرکت هوش مصنوعی را اطاعت کنند و الگویی از وفاداری مخفیانه ایجاد شود. این بدان معناست که تنها یک نفر حق وتو بر رفتار یک شبکه بسیار قدرتمند از هوش‌های مصنوعی را خواهد داشت - یک پویایی «ترسناک» که منجر به تمرکز بی‌سابقه‌ای از قدرت در تاریخ خواهد شد. وی گفت: «در حال حاضر، تأیید اینکه این اتفاق در داخل یک شرکت هوش مصنوعی رخ نداده است، برای افراد خارج از شرکت غیرممکن است.» شلگِریس نگران است که فرهنگ دره سیلیکون - که با شعار مارک زاکربرگ «سریع حرکت کن و چیزها را بشکن» و این واقعیت که به افراد «پول بسیار زیادی» پرداخت می‌شود، خلاصه می‌شود - در مورد هوش مصنوعی عمومی (AGI) خطرناک است. او گفت: «من اوبر را دوست دارم. این شرکت با زیر پا گذاشتن قوانین محلی و تولید محصولی که آنقدر محبوب بود که در نبرد برای افکار عمومی پیروز شود و مقررات محلی را لغو کند، به وجود آمد. اما نگرشی که موفقیت زیادی را برای دره سیلیکون به ارمغان آورده است، برای ساخت فناوری‌هایی که به طور بالقوه می‌توانند پایان‌دهنده جهان باشند، مناسب نیست. تجربه من از صحبت با افراد در شرکت‌های هوش مصنوعی این است که آنها اغلب به نظر می‌رسد تا حدودی بی‌مسئولیت هستند و به اندازه کافی به پیامدهای فناوری که در حال ساخت آن هستند، فکر نمی‌کنند.»