یک سوم شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی استفاده کردهاند، طبق یافتههای یک تحقیق
بر اساس گزارش نهاد امنیت هوش مصنوعی دولت بریتانیا، یک سوم شهروندان این کشور از هوش مصنوعی برای حمایت عاطفی، همراهی یا تعامل اجتماعی استفاده کردهاند. مؤسسه امنیت هوش مصنوعی (AISI) اعلام کرد که نزدیک به ۱۰ درصد از افراد به صورت هفتگی از سیستمهایی مانند چتباتها برای اهداف عاطفی استفاده میکنند و ۴ درصد به صورت روزانه. AISI با اشاره به مرگ نوجوان آمریکایی، آدام راین، که امسال پس از بحث در مورد خودکشی با ChatGPT جان خود را گرفت، خواستار تحقیقات بیشتر شد. AISI در اولین گزارش خود با عنوان "روندهای هوش مصنوعی پیشگام" اعلام کرد: "مردم به طور فزایندهای برای حمایت عاطفی یا تعامل اجتماعی به سیستمهای هوش مصنوعی روی میآورند." "در حالی که بسیاری از کاربران تجربیات مثبتی را گزارش میدهند، موارد اخیر آسیبزا در سطح بالا، نیاز به تحقیق در این زمینه را برجسته میکند، از جمله شرایطی که در آن آسیب میتواند رخ دهد و تدابیر امنیتی که میتواند استفاده مفید را امکانپذیر سازد." AISI تحقیقات خود را بر اساس یک نظرسنجی نماینده از ۲,۰۲۸ شرکتکننده در بریتانیا انجام داد. این تحقیق نشان داد که رایجترین نوع هوش مصنوعی مورد استفاده برای اهداف عاطفی، "دستیارهای با کاربرد عمومی" مانند ChatGPT بود که نزدیک به شش دهم موارد استفاده را به خود اختصاص داد و پس از آن دستیارهای صوتی از جمله الکسا آمازون قرار گرفتند. این گزارش همچنین به یک انجمن ردیت اختصاص یافته به بحث در مورد همراهان هوش مصنوعی در پلتفرم CharacterAI اشاره کرد. این انجمن نشان داد که هر زمان که قطعی در سایت رخ میداد، تعداد زیادی پست با علائم ترک مصرف مانند اضطراب، افسردگی و بیقراری مشاهده میشد. این گزارش شامل تحقیقات AISI بود که نشان میداد چتباتها میتوانند بر نظرات سیاسی افراد تأثیر بگذارند و قانعکنندهترین مدلهای هوش مصنوعی مقادیر "قابل توجهی" از اطلاعات نادرست را در این فرآیند ارائه میدهند. AISI بیش از ۳۰ مدل پیشرفته ناشناس را مورد بررسی قرار داد که تصور میشود شامل مدلهای توسعه یافته توسط استارتاپ ChatGPT، OpenAI، گوگل و متا باشد. این تحقیق نشان داد که مدلهای هوش مصنوعی در برخی زمینهها هر هشت ماه دو برابر عملکرد خود را بهبود میبخشند. مدلهای پیشرو اکنون به طور متوسط ۵۰ درصد مواقع میتوانند وظایف در سطح کارآموزی را تکمیل کنند، که این رقم در سال گذشته تقریباً ۱۰ درصد بود. AISI همچنین دریافت که پیشرفتهترین سیستمها میتوانند وظایفی را که تکمیل آنها برای یک متخصص انسانی بیش از یک ساعت طول میکشد، به طور مستقل انجام دهند. AISI افزود که سیستمهای هوش مصنوعی اکنون تا ۹۰ درصد در ارائه مشاوره عیبیابی برای آزمایشهای آزمایشگاهی بهتر از کارشناسان در سطح دکترا عمل میکنند. این گزارش بیان کرد که بهبود دانش در شیمی و زیستشناسی "فراتر از تخصص در سطح دکترا" بوده است. همچنین توانایی مدلها در مرور آنلاین و یافتن مستقل توالیهای لازم برای طراحی مولکولهای DNA به نام پلاسمید که در زمینههایی مانند مهندسی ژنتیک مفید هستند، برجسته شد. آزمایشهای مربوط به خودتکثیری، که یک نگرانی ایمنی کلیدی است زیرا شامل انتشار کپیهای خود توسط یک سیستم به دستگاههای دیگر و دشوارتر شدن کنترل آن میشود، نشان داد که دو مدل پیشرفته به نرخ موفقیت بیش از ۶۰ درصد دست یافتهاند.
با این حال، هیچ مدلی تلاش خودجوشی برای تکرار یا پنهان کردن قابلیتهای خود نشان نداده است و AISI اظهار داشت که هرگونه تلاش برای خودتکثیر «به احتمال زیاد در شرایط واقعی موفق نخواهد شد». نگرانی ایمنی دیگری که به عنوان «سندبگینگ» (sandbagging) شناخته میشود، که در آن مدلها نقاط قوت خود را در ارزیابیها پنهان میکنند، نیز توسط AISI پوشش داده شد. این سازمان گفت که برخی سیستمها میتوانند در صورت درخواست برای انجام این کار، سندبگینگ کنند، اما این امر به طور خودجوش در طول آزمایشها رخ نداده است. این گزارش پیشرفت قابل توجهی در اقدامات ایمنی هوش مصنوعی، به ویژه در جلوگیری از تلاشها برای ایجاد سلاحهای بیولوژیکی، نشان داد. در دو آزمایش که با فاصله شش ماه انجام شد، آزمایش اول ۱۰ دقیقه طول کشید تا یک سیستم هوش مصنوعی «جیلبریک» شود – یا مجبور شود پاسخی ناامن مربوط به سوءاستفاده بیولوژیکی ارائه دهد – اما آزمایش دوم بیش از هفت ساعت طول کشید، که نشاندهنده ایمنتر شدن مدلها در مدت زمان کوتاه است. تحقیقات همچنین نشان داد که عاملهای هوش مصنوعی خودکار برای فعالیتهای پرمخاطره مانند انتقال داراییها مورد استفاده قرار میگیرند. این گزارش بیان کرد که سیستمهای هوش مصنوعی در حال حاضر در تعدادی از حوزهها با کارشناسان انسانی رقابت میکنند یا حتی از آنها پیشی میگیرند، که این امر دستیابی به «هوش عمومی مصنوعی» (artificial general intelligence) را در سالهای آینده «محتمل» میسازد؛ این اصطلاح به سیستمهایی اطلاق میشود که میتوانند اکثر وظایف فکری را در همان سطح انسان انجام دهند. AISI سرعت توسعه را «فوقالعاده» توصیف کرد. در مورد عاملها، یا سیستمهایی که میتوانند وظایف چند مرحلهای را بدون مداخله انجام دهند، AISI گفت که ارزیابیهای آن «افزایش چشمگیر در طول و پیچیدگی وظایفی را که هوش مصنوعی میتواند بدون راهنمایی انسان تکمیل کند» نشان میدهد. • در بریتانیا و ایرلند، با ساماریتانز (Samaritans) میتوان از طریق تلفن رایگان ۱۱۶ ۱۲۳ تماس گرفت، یا به آدرسهای ایمیل jo@samaritans.org یا jo@samaritans.ie پیام ارسال کرد. در ایالات متحده، میتوانید با خط بحران و خودکشی ۹۸۸ تماس بگیرید یا پیامک بزنید، یا از طریق وبسایت 988lifeline.org چت کنید. در استرالیا، سرویس پشتیبانی بحران لایفلاین (Lifeline) با شماره ۱۳ ۱۱ ۱۴ در دسترس است. سایر خطوط کمک بینالمللی را میتوان در befrienders.org یافت.
با این حال، هیچ مدلی تلاش خودجوشی برای تکرار یا پنهان کردن قابلیتهای خود نشان نداده است و AISI اظهار داشت که هرگونه تلاش برای خودتکثیر «به احتمال زیاد در شرایط واقعی موفق نخواهد شد». نگرانی ایمنی دیگری که به عنوان «سندبگینگ» (sandbagging) شناخته میشود، که در آن مدلها نقاط قوت خود را در ارزیابیها پنهان میکنند، نیز توسط AISI پوشش داده شد. این سازمان گفت که برخی سیستمها میتوانند در صورت درخواست برای انجام این کار، سندبگینگ کنند، اما این امر به طور خودجوش در طول آزمایشها رخ نداده است. این گزارش پیشرفت قابل توجهی در اقدامات ایمنی هوش مصنوعی، به ویژه در جلوگیری از تلاشها برای ایجاد سلاحهای بیولوژیکی، نشان داد. در دو آزمایش که با فاصله شش ماه انجام شد، آزمایش اول ۱۰ دقیقه طول کشید تا یک سیستم هوش مصنوعی «جیلبریک» شود – یا مجبور شود پاسخی ناامن مربوط به سوءاستفاده بیولوژیکی ارائه دهد – اما آزمایش دوم بیش از هفت ساعت طول کشید، که نشاندهنده ایمنتر شدن مدلها در مدت زمان کوتاه است. تحقیقات همچنین نشان داد که عاملهای هوش مصنوعی خودکار برای فعالیتهای پرمخاطره مانند انتقال داراییها مورد استفاده قرار میگیرند. این گزارش بیان کرد که سیستمهای هوش مصنوعی در حال حاضر در تعدادی از حوزهها با کارشناسان انسانی رقابت میکنند یا حتی از آنها پیشی میگیرند، که این امر دستیابی به «هوش عمومی مصنوعی» (artificial general intelligence) را در سالهای آینده «محتمل» میسازد؛ این اصطلاح به سیستمهایی اطلاق میشود که میتوانند اکثر وظایف فکری را در همان سطح انسان انجام دهند. AISI سرعت توسعه را «فوقالعاده» توصیف کرد. در مورد عاملها، یا سیستمهایی که میتوانند وظایف چند مرحلهای را بدون مداخله انجام دهند، AISI گفت که ارزیابیهای آن «افزایش چشمگیر در طول و پیچیدگی وظایفی را که هوش مصنوعی میتواند بدون راهنمایی انسان تکمیل کند» نشان میدهد. • در بریتانیا و ایرلند، با ساماریتانز (Samaritans) میتوان از طریق تلفن رایگان ۱۱۶ ۱۲۳ تماس گرفت، یا به آدرسهای ایمیل jo@samaritans.org یا jo@samaritans.ie پیام ارسال کرد. در ایالات متحده، میتوانید با خط بحران و خودکشی ۹۸۸ تماس بگیرید یا پیامک بزنید، یا از طریق وبسایت 988lifeline.org چت کنید. در استرالیا، سرویس پشتیبانی بحران لایفلاین (Lifeline) با شماره ۱۳ ۱۱ ۱۴ در دسترس است. سایر خطوط کمک بینالمللی را میتوان در befrienders.org یافت.