هری و مگان به پیشگامان هوش مصنوعی در درخواست برای ممنوعیت سیستمهای فوق هوشمند پیوستند
دوک و دوشس ساسکس به پیشگامان هوش مصنوعی و برندگان جایزه نوبل پیوستهاند تا خواستار ممنوعیت توسعه سیستمهای هوش مصنوعی فوقهوشمند شوند. هری و مگان در میان امضاکنندگان بیانیهای هستند که خواستار «ممنوعیت توسعه هوش مصنوعی فوقهوشمند» است. هوش مصنوعی فوقهوشمند (ASI) اصطلاحی برای سیستمهای هوش مصنوعی است که هنوز توسعه نیافتهاند و در تمام وظایف شناختی از سطوح هوش انسانی فراتر میروند. این بیانیه خواستار آن است که این ممنوعیت تا زمانی که «اجماع گسترده علمی» در مورد توسعه ایمن و قابل کنترل ASI حاصل شود و «حمایت قوی عمومی» وجود داشته باشد، پابرجا بماند.
این بیانیه همچنین توسط جفری هینتون، پیشگام هوش مصنوعی و برنده جایزه نوبل، همراه با یوشوا بنجیو، دیگر «پدرخوانده» هوش مصنوعی مدرن؛ استیو وزنیاک، همبنیانگذار اپل؛ ریچارد برانسون، کارآفرین بریتانیایی؛ سوزان رایس، مشاور سابق امنیت ملی آمریکا در دوران باراک اوباما؛ مری رابینسون، رئیسجمهور سابق ایرلند؛ و استفن فرای، نویسنده و مجری بریتانیایی، امضا شده است. دیگر برندگان جایزه نوبل که آن را امضا کردهاند عبارتند از: بئاتریس فین، فرانک ویلچک، جان سی. ماتر و دارون عجم اوغلو.
این بیانیه که متوجه دولتها، شرکتهای فناوری و قانونگذاران است، توسط مؤسسه آینده زندگی (FLI)، یک گروه ایمنی هوش مصنوعی مستقر در ایالات متحده که در سال ۲۰۲۳ خواستار توقف توسعه سیستمهای قدرتمند هوش مصنوعی شد، سازماندهی شده است. این اتفاق مدت کوتاهی پس از آن رخ داد که ظهور ChatGPT، هوش مصنوعی را به یک موضوع سیاسی و عمومی در سراسر جهان تبدیل کرد. در ماه جولای، مارک زاکربرگ، مدیر عامل شرکت متا، مادر فیسبوک، یکی از توسعهدهندگان بزرگ هوش مصنوعی در ایالات متحده، اعلام کرد که توسعه هوش مصنوعی فوقهوشمند «اکنون در دسترس است».
با این حال، برخی از کارشناسان گفتهاند که صحبت از ASI منعکسکننده موقعیتیابی رقابتی بین شرکتهای فناوری است که امسال به تنهایی صدها میلیارد دلار صرف هوش مصنوعی میکنند، نه اینکه این بخش به دستیابی به پیشرفتهای فنی نزدیک باشد. با این وجود، FLI میگوید که چشمانداز دستیابی به ASI «در دهه آینده» مجموعهای از تهدیدها را به همراه دارد که از از دست دادن تمام مشاغل انسانی گرفته تا نقض آزادیهای مدنی، در معرض قرار دادن کشورها در برابر خطرات امنیت ملی و حتی تهدید انقراض بشریت را شامل میشود. نگرانیهای وجودی در مورد هوش مصنوعی بر توانایی بالقوه یک سیستم برای فرار از کنترل انسانی و دستورالعملهای ایمنی و آغاز اقداماتی مغایر با منافع انسانی تمرکز دارد.
FLI یک نظرسنجی ملی در ایالات متحده منتشر کرده است که نشان میدهد تقریباً سه چهارم آمریکاییها خواهان مقررات قوی بر هوش مصنوعی پیشرفته هستند و از هر ۱۰ نفر، ۶ نفر معتقدند که هوش مصنوعی فراانسانی نباید تا زمانی که ایمن یا قابل کنترل بودن آن اثبات نشده است، ساخته شود. این نظرسنجی از ۲,۰۰۰ بزرگسال آمریکایی افزود که تنها ۵ درصد از وضعیت موجود توسعه سریع و بدون مقررات حمایت میکنند.
شرکتهای پیشرو در زمینه هوش مصنوعی در ایالات متحده، از جمله OpenAI، توسعهدهنده ChatGPT، و گوگل، توسعه هوش مصنوعی عمومی (AGI) – وضعیتی نظری که در آن هوش مصنوعی در اکثر وظایف شناختی با سطح هوش انسانی برابری میکند – را به عنوان یک هدف صریح در کار خود قرار دادهاند. اگرچه این هدف یک پله پایینتر از هوش مصنوعی فوقالعاده (ASI) قرار دارد، برخی کارشناسان همچنین هشدار میدهند که این امر میتواند خطرات وجودی را به همراه داشته باشد، به عنوان مثال، با توانایی بهبود خود به سمت سطوح فوق هوشمند، و همچنین تهدیدی ضمنی برای بازار کار مدرن محسوب شود.
این بیانیه همچنین توسط جفری هینتون، پیشگام هوش مصنوعی و برنده جایزه نوبل، همراه با یوشوا بنجیو، دیگر «پدرخوانده» هوش مصنوعی مدرن؛ استیو وزنیاک، همبنیانگذار اپل؛ ریچارد برانسون، کارآفرین بریتانیایی؛ سوزان رایس، مشاور سابق امنیت ملی آمریکا در دوران باراک اوباما؛ مری رابینسون، رئیسجمهور سابق ایرلند؛ و استفن فرای، نویسنده و مجری بریتانیایی، امضا شده است. دیگر برندگان جایزه نوبل که آن را امضا کردهاند عبارتند از: بئاتریس فین، فرانک ویلچک، جان سی. ماتر و دارون عجم اوغلو.
این بیانیه که متوجه دولتها، شرکتهای فناوری و قانونگذاران است، توسط مؤسسه آینده زندگی (FLI)، یک گروه ایمنی هوش مصنوعی مستقر در ایالات متحده که در سال ۲۰۲۳ خواستار توقف توسعه سیستمهای قدرتمند هوش مصنوعی شد، سازماندهی شده است. این اتفاق مدت کوتاهی پس از آن رخ داد که ظهور ChatGPT، هوش مصنوعی را به یک موضوع سیاسی و عمومی در سراسر جهان تبدیل کرد. در ماه جولای، مارک زاکربرگ، مدیر عامل شرکت متا، مادر فیسبوک، یکی از توسعهدهندگان بزرگ هوش مصنوعی در ایالات متحده، اعلام کرد که توسعه هوش مصنوعی فوقهوشمند «اکنون در دسترس است».
با این حال، برخی از کارشناسان گفتهاند که صحبت از ASI منعکسکننده موقعیتیابی رقابتی بین شرکتهای فناوری است که امسال به تنهایی صدها میلیارد دلار صرف هوش مصنوعی میکنند، نه اینکه این بخش به دستیابی به پیشرفتهای فنی نزدیک باشد. با این وجود، FLI میگوید که چشمانداز دستیابی به ASI «در دهه آینده» مجموعهای از تهدیدها را به همراه دارد که از از دست دادن تمام مشاغل انسانی گرفته تا نقض آزادیهای مدنی، در معرض قرار دادن کشورها در برابر خطرات امنیت ملی و حتی تهدید انقراض بشریت را شامل میشود. نگرانیهای وجودی در مورد هوش مصنوعی بر توانایی بالقوه یک سیستم برای فرار از کنترل انسانی و دستورالعملهای ایمنی و آغاز اقداماتی مغایر با منافع انسانی تمرکز دارد.
FLI یک نظرسنجی ملی در ایالات متحده منتشر کرده است که نشان میدهد تقریباً سه چهارم آمریکاییها خواهان مقررات قوی بر هوش مصنوعی پیشرفته هستند و از هر ۱۰ نفر، ۶ نفر معتقدند که هوش مصنوعی فراانسانی نباید تا زمانی که ایمن یا قابل کنترل بودن آن اثبات نشده است، ساخته شود. این نظرسنجی از ۲,۰۰۰ بزرگسال آمریکایی افزود که تنها ۵ درصد از وضعیت موجود توسعه سریع و بدون مقررات حمایت میکنند.
شرکتهای پیشرو در زمینه هوش مصنوعی در ایالات متحده، از جمله OpenAI، توسعهدهنده ChatGPT، و گوگل، توسعه هوش مصنوعی عمومی (AGI) – وضعیتی نظری که در آن هوش مصنوعی در اکثر وظایف شناختی با سطح هوش انسانی برابری میکند – را به عنوان یک هدف صریح در کار خود قرار دادهاند. اگرچه این هدف یک پله پایینتر از هوش مصنوعی فوقالعاده (ASI) قرار دارد، برخی کارشناسان همچنین هشدار میدهند که این امر میتواند خطرات وجودی را به همراه داشته باشد، به عنوان مثال، با توانایی بهبود خود به سمت سطوح فوق هوشمند، و همچنین تهدیدی ضمنی برای بازار کار مدرن محسوب شود.