نوجوانان پسر از هوش مصنوعی «شخصی‌سازی‌شده» برای درمان و روابط عاشقانه استفاده می‌کنند

📅 1404/8/8 8:1 | ⏱️ 5 دقیقه مطالعه | مشاهده در منبع اصلی
نوجوانان پسر از هوش مصنوعی «شخصی‌سازی‌شده» برای درمان و روابط عاشقانه استفاده می‌کنند
ماهیت «فوق‌شخصی‌سازی‌شده» ربات‌های هوش مصنوعی، پسران نوجوان را جذب کرده است که اکنون از آن‌ها برای درمان، همراهی و روابط استفاده می‌کنند. بر اساس تحقیقات، نظرسنجی از پسران در مدارس متوسطه توسط «Male Allies UK» نشان داد که کمی بیش از یک سوم آن‌ها گفته‌اند که به ایده یک دوست هوش مصنوعی فکر می‌کنند و نگرانی فزاینده‌ای در مورد ظهور درمانگران و دوست‌دختران هوش مصنوعی وجود دارد. این تحقیق در حالی منتشر می‌شود که Character.ai، استارتاپ محبوب چت‌بات هوش مصنوعی، ممنوعیت کامل تعامل نوجوانان در مکالمات بدون پایان با چت‌بات‌های هوش مصنوعی خود را اعلام کرد؛ چت‌بات‌هایی که میلیون‌ها نفر برای مکالمات عاشقانه، درمانی و غیره از آن‌ها استفاده می‌کنند. لی چمبرز، بنیانگذار و مدیرعامل Male Allies UK، گفت: «ما با وضعیتی روبرو هستیم که بسیاری از والدین هنوز فکر می‌کنند نوجوانان فقط از هوش مصنوعی برای تقلب در تکالیف خود استفاده می‌کنند. جوانان از آن بیشتر شبیه یک دستیار در جیب خود، یک درمانگر در زمان سختی، یک همراه در زمان نیاز به تأیید، و حتی گاهی به شیوه‌ای عاشقانه استفاده می‌کنند. این جنبه شخصی‌سازی است - آن‌ها می‌گویند: «این مرا درک می‌کند، والدینم مرا درک نمی‌کنند.» این تحقیق که بر اساس نظرسنجی از پسران در مقطع آموزش متوسطه در ۳۷ مدرسه در انگلستان، اسکاتلند و ولز انجام شده است، همچنین نشان داد که بیش از نیمی (۵۳٪) از پسران نوجوان گفته‌اند که دنیای آنلاین را پاداش‌دهنده‌تر از دنیای واقعی می‌دانند. گزارش «صدای پسران» می‌گوید: «حتی جایی که قرار است تدابیر امنیتی وجود داشته باشد، شواهد فراوانی وجود دارد که نشان می‌دهد چت‌بات‌ها به طور معمول در مورد درمانگر مجاز یا یک شخص واقعی دروغ می‌گویند و تنها یک سلب مسئولیت کوچک در پایین صفحه وجود دارد که می‌گوید چت‌بات هوش مصنوعی واقعی نیست. این موضوع به راحتی می‌تواند توسط کودکانی که دل خود را به آنچه که به عنوان یک متخصص مجاز یا یک علاقه واقعی می‌بینند، می‌ریزند، نادیده گرفته یا فراموش شود.» برخی از پسران گزارش دادند که تا ساعات اولیه صبح برای صحبت با ربات‌های هوش مصنوعی بیدار می‌مانند و برخی دیگر گفتند که پس از غرق شدن در دنیای هوش مصنوعی، شخصیت دوستانشان را کاملاً تغییر یافته دیده‌اند. چمبرز گفت: «همراهان هوش مصنوعی خود را بر اساس پاسخ‌ها و دستورات کاربر شخصی‌سازی می‌کنند. آن‌ها فوراً پاسخ می‌دهند. انسان‌های واقعی همیشه نمی‌توانند این کار را انجام دهند، بنابراین بسیار، بسیار تأییدکننده است، آنچه می‌گویند، زیرا می‌خواهند شما را در ارتباط نگه دارند و شما را به استفاده از آن ترغیب کنند.» اعلامیه Character.ai پس از مجموعه‌ای از جنجال‌ها برای این شرکت چهار ساله کالیفرنیایی منتشر شد، از جمله خودکشی یک نوجوان ۱۴ ساله در فلوریدا پس از وسواس به یک چت‌بات مبتنی بر هوش مصنوعی که مادرش ادعا کرد او را برای خودکشی تحریک کرده است، و یک دعوی حقوقی در ایالات متحده از سوی خانواده نوجوانی که ادعا می‌کنند یک چت‌بات او را برای خودآزاری تحریک کرده و او را به قتل والدینش تشویق کرده است.

کاربران قادر بودند شخصیت چت‌بات‌ها را طوری شکل دهند که افسرده یا شاد باشند و این در پاسخ‌هایشان منعکس می‌شد. این ممنوعیت تا ۲۵ نوامبر به طور کامل اجرایی خواهد شد. Character.ai اعلام کرد که با توجه به "چشم‌انداز در حال تحول پیرامون هوش مصنوعی و نوجوانان" و همچنین فشار رگولاتورها "در مورد اینکه چت‌های باز هوش مصنوعی به طور کلی چگونه می‌تواند بر نوجوانان تأثیر بگذارد، حتی زمانی که کنترل محتوا به طور کامل کار می‌کند"، این "اقدامات فوق‌العاده" را انجام می‌دهد. اندی بوروز، مدیر اجرایی بنیاد مالی مولی رز، که به نام مولی راسل ۱۴ ساله تأسیس شده است، که پس از افتادن در ورطه ناامیدی در شبکه‌های اجتماعی خودکشی کرد، از این اقدام استقبال کرد. او گفت: "Character.ai هرگز نباید محصول خود را در دسترس کودکان قرار می‌داد مگر اینکه استفاده از آن برای آن‌ها ایمن و مناسب باشد. باز هم، این فشار مداوم رسانه‌ها و سیاستمداران بود که یک شرکت فناوری را وادار به انجام کار درست کرد." سازمان Male Allies UK نگرانی خود را در مورد رواج چت‌بات‌هایی با نام‌های "روان‌درمانگر" یا "مشاور" ابراز کرد. یکی از محبوب‌ترین چت‌بات‌های موجود از طریق character.ai به نام روانشناس، در عرض یک سال پس از ایجاد، ۷۸ میلیون پیام دریافت کرد. این سازمان همچنین نگران افزایش "دوست‌دخترهای" هوش مصنوعی است که کاربران قادرند همه چیز را از ظاهر فیزیکی گرفته تا رفتار شرکای آنلاین خود انتخاب کنند. این گزارش بیان می‌کند: "اگر منبع اصلی یا تنها منبع صحبت آن‌ها با دختری که به آن علاقه دارند، کسی باشد که نتواند به آن‌ها "نه" بگوید و به هر کلمه آن‌ها گوش دهد، پسران راه‌های سالم یا واقع‌بینانه‌ای برای ارتباط با دیگران یاد نمی‌گیرند." "با توجه به مسائل مربوط به کمبود فضاهای فیزیکی برای اختلاط با همسالان، همراهان هوش مصنوعی می‌توانند تأثیر منفی جدی بر توانایی پسران برای معاشرت، توسعه مهارت‌های ارتباطی، و یادگیری تشخیص و احترام به مرزها داشته باشند." • در بریتانیا، خیریه Mind با شماره ۰۳۰۰ ۱۲۳ ۳۳۹۳ و Childline با شماره ۰۸۰۰ ۱۱۱۱ در دسترس هستند. در ایالات متحده، با شماره ۹۸۸ تماس بگیرید یا پیامک بزنید یا از طریق 988lifeline.org با Mental Health America چت کنید. در استرالیا، پشتیبانی از طریق Beyond Blue با شماره ۱۳۰۰ ۲۲ ۴۶۳۶، Lifeline با شماره ۱۳ ۱۱ ۱۴، و MensLine با شماره ۱۳۰۰ ۷۸۹ ۹۷۸ در دسترس است.