هری و مگان به پیشگامان هوش مصنوعی در درخواست برای ممنوعیت سیستم‌های فوق هوشمند پیوستند

📅 1404/7/30 12:0 | ⏱️ 4 دقیقه مطالعه | مشاهده در منبع اصلی
هری و مگان به پیشگامان هوش مصنوعی در درخواست برای ممنوعیت سیستم‌های فوق هوشمند پیوستند
دوک و دوشس ساسکس به پیشگامان هوش مصنوعی و برندگان جایزه نوبل پیوسته‌اند تا خواستار ممنوعیت توسعه سیستم‌های هوش مصنوعی فوق‌هوشمند شوند. هری و مگان در میان امضاکنندگان بیانیه‌ای هستند که خواستار «ممنوعیت توسعه هوش مصنوعی فوق‌هوشمند» است. هوش مصنوعی فوق‌هوشمند (ASI) اصطلاحی برای سیستم‌های هوش مصنوعی است که هنوز توسعه نیافته‌اند و در تمام وظایف شناختی از سطوح هوش انسانی فراتر می‌روند. این بیانیه خواستار آن است که این ممنوعیت تا زمانی که «اجماع گسترده علمی» در مورد توسعه ایمن و قابل کنترل ASI حاصل شود و «حمایت قوی عمومی» وجود داشته باشد، پابرجا بماند.

این بیانیه همچنین توسط جفری هینتون، پیشگام هوش مصنوعی و برنده جایزه نوبل، همراه با یوشوا بنجیو، دیگر «پدرخوانده» هوش مصنوعی مدرن؛ استیو وزنیاک، هم‌بنیان‌گذار اپل؛ ریچارد برانسون، کارآفرین بریتانیایی؛ سوزان رایس، مشاور سابق امنیت ملی آمریکا در دوران باراک اوباما؛ مری رابینسون، رئیس‌جمهور سابق ایرلند؛ و استفن فرای، نویسنده و مجری بریتانیایی، امضا شده است. دیگر برندگان جایزه نوبل که آن را امضا کرده‌اند عبارتند از: بئاتریس فین، فرانک ویلچک، جان سی. ماتر و دارون عجم اوغلو.

این بیانیه که متوجه دولت‌ها، شرکت‌های فناوری و قانون‌گذاران است، توسط مؤسسه آینده زندگی (FLI)، یک گروه ایمنی هوش مصنوعی مستقر در ایالات متحده که در سال ۲۰۲۳ خواستار توقف توسعه سیستم‌های قدرتمند هوش مصنوعی شد، سازماندهی شده است. این اتفاق مدت کوتاهی پس از آن رخ داد که ظهور ChatGPT، هوش مصنوعی را به یک موضوع سیاسی و عمومی در سراسر جهان تبدیل کرد. در ماه جولای، مارک زاکربرگ، مدیر عامل شرکت متا، مادر فیس‌بوک، یکی از توسعه‌دهندگان بزرگ هوش مصنوعی در ایالات متحده، اعلام کرد که توسعه هوش مصنوعی فوق‌هوشمند «اکنون در دسترس است».

با این حال، برخی از کارشناسان گفته‌اند که صحبت از ASI منعکس‌کننده موقعیت‌یابی رقابتی بین شرکت‌های فناوری است که امسال به تنهایی صدها میلیارد دلار صرف هوش مصنوعی می‌کنند، نه اینکه این بخش به دستیابی به پیشرفت‌های فنی نزدیک باشد. با این وجود، FLI می‌گوید که چشم‌انداز دستیابی به ASI «در دهه آینده» مجموعه‌ای از تهدیدها را به همراه دارد که از از دست دادن تمام مشاغل انسانی گرفته تا نقض آزادی‌های مدنی، در معرض قرار دادن کشورها در برابر خطرات امنیت ملی و حتی تهدید انقراض بشریت را شامل می‌شود. نگرانی‌های وجودی در مورد هوش مصنوعی بر توانایی بالقوه یک سیستم برای فرار از کنترل انسانی و دستورالعمل‌های ایمنی و آغاز اقداماتی مغایر با منافع انسانی تمرکز دارد.

FLI یک نظرسنجی ملی در ایالات متحده منتشر کرده است که نشان می‌دهد تقریباً سه چهارم آمریکایی‌ها خواهان مقررات قوی بر هوش مصنوعی پیشرفته هستند و از هر ۱۰ نفر، ۶ نفر معتقدند که هوش مصنوعی فراانسانی نباید تا زمانی که ایمن یا قابل کنترل بودن آن اثبات نشده است، ساخته شود. این نظرسنجی از ۲,۰۰۰ بزرگسال آمریکایی افزود که تنها ۵ درصد از وضعیت موجود توسعه سریع و بدون مقررات حمایت می‌کنند.

شرکت‌های پیشرو در زمینه هوش مصنوعی در ایالات متحده، از جمله OpenAI، توسعه‌دهنده ChatGPT، و گوگل، توسعه هوش مصنوعی عمومی (AGI) – وضعیتی نظری که در آن هوش مصنوعی در اکثر وظایف شناختی با سطح هوش انسانی برابری می‌کند – را به عنوان یک هدف صریح در کار خود قرار داده‌اند. اگرچه این هدف یک پله پایین‌تر از هوش مصنوعی فوق‌العاده (ASI) قرار دارد، برخی کارشناسان همچنین هشدار می‌دهند که این امر می‌تواند خطرات وجودی را به همراه داشته باشد، به عنوان مثال، با توانایی بهبود خود به سمت سطوح فوق هوشمند، و همچنین تهدیدی ضمنی برای بازار کار مدرن محسوب شود.