دهها نماینده پارلمان بریتانیا به درخواستها برای تنظیم مقررات سیستمهای هوش مصنوعی قدرتمند پیوستند
بیش از ۱۰۰ نماینده پارلمان بریتانیا خواستار وضع مقررات الزامآور بر قدرتمندترین سیستمهای هوش مصنوعی توسط دولت شدهاند، زیرا نگرانیها از کندی روند تدوین تدابیر حفاظتی توسط وزرا در مواجهه با لابیگری صنعت فناوری افزایش یافته است. یک وزیر سابق هوش مصنوعی و وزیر دفاع، بخشی از گروهی متشکل از نمایندگان مجلس عوام، اعضای مجلس اعیان و اعضای منتخب مجالس قانونگذاری اسکاتلند، ولز و ایرلند شمالی هستند که خواستار کنترلهای سختگیرانهتر بر سیستمهای پیشرفته شدهاند و نگرانی خود را از اینکه هوش مصنوعی فوقهوشمند "امنیت ملی و جهانی را به خطر میاندازد" ابراز کردهاند. این فشار برای مقررات سختگیرانهتر توسط یک سازمان غیرانتفاعی به نام "کنترل هوش مصنوعی" (Control AI) هماهنگ میشود که حامیان آن شامل جان تالین، یکی از بنیانگذاران اسکایپ، هستند. این سازمان از کیر استارمر خواسته است تا استقلال خود را از کاخ سفید دونالد ترامپ که با مقرراتگذاری هوش مصنوعی مخالف است، نشان دهد. یوشوا بنجیو، یکی از "پدران معنوی" این فناوری، اخیراً گفته است که این حوزه کمتر از یک ساندویچ مقرراتگذاری شده است. کمپینکنندگان شامل دز براون، عضو مجلس اعیان از حزب کارگر و وزیر دفاع سابق، هستند که گفته است هوش مصنوعی فوقهوشمند "خطرناکترین پیشرفت فناورانه از زمان دستیابی به توانایی جنگ هستهای خواهد بود". وی افزود که تنها همکاری بینالمللی "میتواند از مسابقه بیملاحظه برای کسب مزیت که میتواند همه ما را به خطر بیندازد، جلوگیری کند". زاک گلداسمیت، عضو مجلس اعیان از حزب محافظهکار و وزیر سابق محیط زیست، اظهار داشت که "حتی در حالی که چهرههای بسیار مهم و ارشد در حوزه هوش مصنوعی در حال هشدار دادن هستند، دولتها کیلومترها از شرکتهای هوش مصنوعی عقب هستند و به آنها اجازه میدهند تا توسعه آن را با تقریباً هیچ نظارتی دنبال کنند". بریتانیا در سال ۲۰۲۳ میزبان اجلاس ایمنی هوش مصنوعی در بلچلی پارک بود که در آن نتیجهگیری شد "پتانسیل آسیب جدی، حتی فاجعهبار، چه عمدی و چه غیرعمدی" از سوی پیشرفتهترین سیستمهای هوش مصنوعی وجود دارد. در این اجلاس، مؤسسه ایمنی هوش مصنوعی که اکنون مؤسسه امنیت هوش مصنوعی نامیده میشود، تأسیس شد که به یک نهاد مورد احترام بینالمللی تبدیل شده است. با این حال، تأکید کمتری بر فراخوان اجلاس برای رسیدگی به خطرات از طریق همکاری بینالمللی شده است. گلداسمیت گفت که بریتانیا باید "رهبری جهانی خود را در امنیت هوش مصنوعی با حمایت از یک توافق بینالمللی برای ممنوعیت توسعه هوش مصنوعی فوقهوشمند تا زمانی که بدانیم با چه چیزی سروکار داریم و چگونه آن را مهار کنیم، از سر بگیرد". این درخواستها برای مداخله دولتی در مسابقه هوش مصنوعی پس از آن مطرح میشود که یکی از دانشمندان برجسته هوش مصنوعی در دره سیلیکون به گاردین گفت که بشریت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا "خطر نهایی" اجازه دادن به سیستمهای هوش مصنوعی برای آموزش خود و قدرتمندتر شدن را بپذیرد یا خیر.
جرد کاپلان، همبنیانگذار و دانشمند ارشد شرکت پیشرو هوش مصنوعی Anthropic، گفت: «ما واقعاً نمیخواهیم وضعیتی شبیه اسپوتنیک پیش بیاید که دولت ناگهان بیدار شود و بگوید: اوه، بله، هوش مصنوعی موضوع مهمی است.» برنامه حزب کارگر که در ژوئیه ۲۰۲۴ ارائه شد، اعلام کرد که «برای الزام توسعهدهندگان قدرتمندترین مدلهای هوش مصنوعی، قانونگذاری خواهد کرد». اما هیچ لایحهای منتشر نشده و دولت با فشار کاخ سفید برای عدم ممانعت از توسعه تجاری هوش مصنوعی، که عمدتاً توسط شرکتهای آمریکایی پیشگام بوده است، روبرو شده است. سخنگوی وزارت علوم، نوآوری و فناوری گفت: «هوش مصنوعی در حال حاضر در بریتانیا تنظیم میشود و طیف وسیعی از قوانین موجود در حال اجرا هستند. ما بر لزوم اطمینان از آمادگی بریتانیا و قوانین آن برای چالشها و فرصتهای هوش مصنوعی تأکید کردهایم و این موضع تغییری نکرده است.» اسقف آکسفورد، استیون کرافت، که از کمپین کنترل هوش مصنوعی حمایت میکند، خواستار یک ناظر مستقل هوش مصنوعی برای بررسی استفاده در بخش دولتی و الزام شرکتهای هوش مصنوعی به رعایت حداقل استانداردهای آزمایشی قبل از انتشار مدلهای جدید شد. او گفت: «انواع خطرات وجود دارد و به نظر نمیرسد دولت اصل احتیاطی را اتخاذ کرده باشد. در حال حاضر خطرات قابل توجهی وجود دارد: سلامت روان کودکان و بزرگسالان، هزینههای زیستمحیطی و سایر خطرات بزرگ در زمینه همراستایی هوش مصنوعی عمومی و [مسئله] آنچه برای بشریت خوب است. به نظر میرسد دولت از مقرراتزدایی دور میشود.» جاناتان بری، اولین وزیر هوش مصنوعی بریتانیا در دوران ریشی سوناک، گفت که زمان آن فرا میرسد که مقررات الزامآور برای مدلهایی که خطرات وجودی ایجاد میکنند، اعمال شود. او گفت قوانین باید جهانی باشند و نقاط تریپویر ایجاد کنند تا اگر مدلهای هوش مصنوعی به قدرت معینی رسیدند، سازندگان آنها مجبور شوند نشان دهند که آزمایش شدهاند، با کلیدهای خاموش طراحی شدهاند و قابلیت بازآموزی دارند. او گفت: «ایمنی هوش مصنوعی پیشرو در سطح بینالمللی آنطور که امیدوار بودیم، پیشرفت نکرده است.» او به موارد اخیر چتباتهایی اشاره کرد که در تشویق به خودکشی، استفاده مردم از آنها به عنوان درمانگر و باور به خدای بودن آنها نقش داشتهاند. او گفت: «خطرات در حال حاضر بسیار جدی هستند و ما باید دائماً هوشیار باشیم.» آندریا میوتی، مدیر اجرایی کنترل هوش مصنوعی، رویکرد فعلی «ترسو» را مورد انتقاد قرار داد و گفت: «لابیگری زیادی از سوی بریتانیا و ایالات متحده صورت گرفته است. شرکتهای هوش مصنوعی در حال لابیگری با دولتهای بریتانیا و ایالات متحده هستند تا مقررات را به تعویق بیندازند و استدلال میکنند که این امر زودرس است و نوآوری را خفه میکند. برخی از این شرکتها همانهایی هستند که میگویند هوش مصنوعی میتواند بشریت را نابود کند.» او گفت سرعت پیشرفت فناوری هوش مصنوعی به این معنی است که ممکن است در یکی دو سال آینده به استانداردهای اجباری نیاز باشد. او گفت: «این کاملاً فوری است.»
جرد کاپلان، همبنیانگذار و دانشمند ارشد شرکت پیشرو هوش مصنوعی Anthropic، گفت: «ما واقعاً نمیخواهیم وضعیتی شبیه اسپوتنیک پیش بیاید که دولت ناگهان بیدار شود و بگوید: اوه، بله، هوش مصنوعی موضوع مهمی است.» برنامه حزب کارگر که در ژوئیه ۲۰۲۴ ارائه شد، اعلام کرد که «برای الزام توسعهدهندگان قدرتمندترین مدلهای هوش مصنوعی، قانونگذاری خواهد کرد». اما هیچ لایحهای منتشر نشده و دولت با فشار کاخ سفید برای عدم ممانعت از توسعه تجاری هوش مصنوعی، که عمدتاً توسط شرکتهای آمریکایی پیشگام بوده است، روبرو شده است. سخنگوی وزارت علوم، نوآوری و فناوری گفت: «هوش مصنوعی در حال حاضر در بریتانیا تنظیم میشود و طیف وسیعی از قوانین موجود در حال اجرا هستند. ما بر لزوم اطمینان از آمادگی بریتانیا و قوانین آن برای چالشها و فرصتهای هوش مصنوعی تأکید کردهایم و این موضع تغییری نکرده است.» اسقف آکسفورد، استیون کرافت، که از کمپین کنترل هوش مصنوعی حمایت میکند، خواستار یک ناظر مستقل هوش مصنوعی برای بررسی استفاده در بخش دولتی و الزام شرکتهای هوش مصنوعی به رعایت حداقل استانداردهای آزمایشی قبل از انتشار مدلهای جدید شد. او گفت: «انواع خطرات وجود دارد و به نظر نمیرسد دولت اصل احتیاطی را اتخاذ کرده باشد. در حال حاضر خطرات قابل توجهی وجود دارد: سلامت روان کودکان و بزرگسالان، هزینههای زیستمحیطی و سایر خطرات بزرگ در زمینه همراستایی هوش مصنوعی عمومی و [مسئله] آنچه برای بشریت خوب است. به نظر میرسد دولت از مقرراتزدایی دور میشود.» جاناتان بری، اولین وزیر هوش مصنوعی بریتانیا در دوران ریشی سوناک، گفت که زمان آن فرا میرسد که مقررات الزامآور برای مدلهایی که خطرات وجودی ایجاد میکنند، اعمال شود. او گفت قوانین باید جهانی باشند و نقاط تریپویر ایجاد کنند تا اگر مدلهای هوش مصنوعی به قدرت معینی رسیدند، سازندگان آنها مجبور شوند نشان دهند که آزمایش شدهاند، با کلیدهای خاموش طراحی شدهاند و قابلیت بازآموزی دارند. او گفت: «ایمنی هوش مصنوعی پیشرو در سطح بینالمللی آنطور که امیدوار بودیم، پیشرفت نکرده است.» او به موارد اخیر چتباتهایی اشاره کرد که در تشویق به خودکشی، استفاده مردم از آنها به عنوان درمانگر و باور به خدای بودن آنها نقش داشتهاند. او گفت: «خطرات در حال حاضر بسیار جدی هستند و ما باید دائماً هوشیار باشیم.» آندریا میوتی، مدیر اجرایی کنترل هوش مصنوعی، رویکرد فعلی «ترسو» را مورد انتقاد قرار داد و گفت: «لابیگری زیادی از سوی بریتانیا و ایالات متحده صورت گرفته است. شرکتهای هوش مصنوعی در حال لابیگری با دولتهای بریتانیا و ایالات متحده هستند تا مقررات را به تعویق بیندازند و استدلال میکنند که این امر زودرس است و نوآوری را خفه میکند. برخی از این شرکتها همانهایی هستند که میگویند هوش مصنوعی میتواند بشریت را نابود کند.» او گفت سرعت پیشرفت فناوری هوش مصنوعی به این معنی است که ممکن است در یکی دو سال آینده به استانداردهای اجباری نیاز باشد. او گفت: «این کاملاً فوری است.»