یک سوم شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی استفاده کرده‌اند، طبق یافته‌های یک تحقیق

📅 1404/9/27 17:0 | ⏱️ 5 دقیقه مطالعه | مشاهده در منبع اصلی
یک سوم شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی استفاده کرده‌اند، طبق یافته‌های یک تحقیق
بر اساس گزارش نهاد امنیت هوش مصنوعی دولت بریتانیا، یک سوم شهروندان این کشور از هوش مصنوعی برای حمایت عاطفی، همراهی یا تعامل اجتماعی استفاده کرده‌اند. مؤسسه امنیت هوش مصنوعی (AISI) اعلام کرد که نزدیک به ۱۰ درصد از افراد به صورت هفتگی از سیستم‌هایی مانند چت‌بات‌ها برای اهداف عاطفی استفاده می‌کنند و ۴ درصد به صورت روزانه. AISI با اشاره به مرگ نوجوان آمریکایی، آدام راین، که امسال پس از بحث در مورد خودکشی با ChatGPT جان خود را گرفت، خواستار تحقیقات بیشتر شد. AISI در اولین گزارش خود با عنوان "روندهای هوش مصنوعی پیشگام" اعلام کرد: "مردم به طور فزاینده‌ای برای حمایت عاطفی یا تعامل اجتماعی به سیستم‌های هوش مصنوعی روی می‌آورند." "در حالی که بسیاری از کاربران تجربیات مثبتی را گزارش می‌دهند، موارد اخیر آسیب‌زا در سطح بالا، نیاز به تحقیق در این زمینه را برجسته می‌کند، از جمله شرایطی که در آن آسیب می‌تواند رخ دهد و تدابیر امنیتی که می‌تواند استفاده مفید را امکان‌پذیر سازد." AISI تحقیقات خود را بر اساس یک نظرسنجی نماینده از ۲,۰۲۸ شرکت‌کننده در بریتانیا انجام داد. این تحقیق نشان داد که رایج‌ترین نوع هوش مصنوعی مورد استفاده برای اهداف عاطفی، "دستیارهای با کاربرد عمومی" مانند ChatGPT بود که نزدیک به شش دهم موارد استفاده را به خود اختصاص داد و پس از آن دستیارهای صوتی از جمله الکسا آمازون قرار گرفتند. این گزارش همچنین به یک انجمن ردیت اختصاص یافته به بحث در مورد همراهان هوش مصنوعی در پلتفرم CharacterAI اشاره کرد. این انجمن نشان داد که هر زمان که قطعی در سایت رخ می‌داد، تعداد زیادی پست با علائم ترک مصرف مانند اضطراب، افسردگی و بی‌قراری مشاهده می‌شد. این گزارش شامل تحقیقات AISI بود که نشان می‌داد چت‌بات‌ها می‌توانند بر نظرات سیاسی افراد تأثیر بگذارند و قانع‌کننده‌ترین مدل‌های هوش مصنوعی مقادیر "قابل توجهی" از اطلاعات نادرست را در این فرآیند ارائه می‌دهند. AISI بیش از ۳۰ مدل پیشرفته ناشناس را مورد بررسی قرار داد که تصور می‌شود شامل مدل‌های توسعه یافته توسط استارتاپ ChatGPT، OpenAI، گوگل و متا باشد. این تحقیق نشان داد که مدل‌های هوش مصنوعی در برخی زمینه‌ها هر هشت ماه دو برابر عملکرد خود را بهبود می‌بخشند. مدل‌های پیشرو اکنون به طور متوسط ۵۰ درصد مواقع می‌توانند وظایف در سطح کارآموزی را تکمیل کنند، که این رقم در سال گذشته تقریباً ۱۰ درصد بود. AISI همچنین دریافت که پیشرفته‌ترین سیستم‌ها می‌توانند وظایفی را که تکمیل آن‌ها برای یک متخصص انسانی بیش از یک ساعت طول می‌کشد، به طور مستقل انجام دهند. AISI افزود که سیستم‌های هوش مصنوعی اکنون تا ۹۰ درصد در ارائه مشاوره عیب‌یابی برای آزمایش‌های آزمایشگاهی بهتر از کارشناسان در سطح دکترا عمل می‌کنند. این گزارش بیان کرد که بهبود دانش در شیمی و زیست‌شناسی "فراتر از تخصص در سطح دکترا" بوده است. همچنین توانایی مدل‌ها در مرور آنلاین و یافتن مستقل توالی‌های لازم برای طراحی مولکول‌های DNA به نام پلاسمید که در زمینه‌هایی مانند مهندسی ژنتیک مفید هستند، برجسته شد. آزمایش‌های مربوط به خودتکثیری، که یک نگرانی ایمنی کلیدی است زیرا شامل انتشار کپی‌های خود توسط یک سیستم به دستگاه‌های دیگر و دشوارتر شدن کنترل آن می‌شود، نشان داد که دو مدل پیشرفته به نرخ موفقیت بیش از ۶۰ درصد دست یافته‌اند.

با این حال، هیچ مدلی تلاش خودجوشی برای تکرار یا پنهان کردن قابلیت‌های خود نشان نداده است و AISI اظهار داشت که هرگونه تلاش برای خودتکثیر «به احتمال زیاد در شرایط واقعی موفق نخواهد شد». نگرانی ایمنی دیگری که به عنوان «سندبگینگ» (sandbagging) شناخته می‌شود، که در آن مدل‌ها نقاط قوت خود را در ارزیابی‌ها پنهان می‌کنند، نیز توسط AISI پوشش داده شد. این سازمان گفت که برخی سیستم‌ها می‌توانند در صورت درخواست برای انجام این کار، سندبگینگ کنند، اما این امر به طور خودجوش در طول آزمایش‌ها رخ نداده است. این گزارش پیشرفت قابل توجهی در اقدامات ایمنی هوش مصنوعی، به ویژه در جلوگیری از تلاش‌ها برای ایجاد سلاح‌های بیولوژیکی، نشان داد. در دو آزمایش که با فاصله شش ماه انجام شد، آزمایش اول ۱۰ دقیقه طول کشید تا یک سیستم هوش مصنوعی «جیلبریک» شود – یا مجبور شود پاسخی ناامن مربوط به سوءاستفاده بیولوژیکی ارائه دهد – اما آزمایش دوم بیش از هفت ساعت طول کشید، که نشان‌دهنده ایمن‌تر شدن مدل‌ها در مدت زمان کوتاه است. تحقیقات همچنین نشان داد که عامل‌های هوش مصنوعی خودکار برای فعالیت‌های پرمخاطره مانند انتقال دارایی‌ها مورد استفاده قرار می‌گیرند. این گزارش بیان کرد که سیستم‌های هوش مصنوعی در حال حاضر در تعدادی از حوزه‌ها با کارشناسان انسانی رقابت می‌کنند یا حتی از آن‌ها پیشی می‌گیرند، که این امر دستیابی به «هوش عمومی مصنوعی» (artificial general intelligence) را در سال‌های آینده «محتمل» می‌سازد؛ این اصطلاح به سیستم‌هایی اطلاق می‌شود که می‌توانند اکثر وظایف فکری را در همان سطح انسان انجام دهند. AISI سرعت توسعه را «فوق‌العاده» توصیف کرد. در مورد عامل‌ها، یا سیستم‌هایی که می‌توانند وظایف چند مرحله‌ای را بدون مداخله انجام دهند، AISI گفت که ارزیابی‌های آن «افزایش چشمگیر در طول و پیچیدگی وظایفی را که هوش مصنوعی می‌تواند بدون راهنمایی انسان تکمیل کند» نشان می‌دهد. • در بریتانیا و ایرلند، با ساماریتانز (Samaritans) می‌توان از طریق تلفن رایگان ۱۱۶ ۱۲۳ تماس گرفت، یا به آدرس‌های ایمیل jo@samaritans.org یا jo@samaritans.ie پیام ارسال کرد. در ایالات متحده، می‌توانید با خط بحران و خودکشی ۹۸۸ تماس بگیرید یا پیامک بزنید، یا از طریق وب‌سایت 988lifeline.org چت کنید. در استرالیا، سرویس پشتیبانی بحران لایف‌لاین (Lifeline) با شماره ۱۳ ۱۱ ۱۴ در دسترس است. سایر خطوط کمک بین‌المللی را می‌توان در befrienders.org یافت.