نوجوانان پسر از هوش مصنوعی «شخصیسازیشده» برای درمان و روابط عاشقانه استفاده میکنند
ماهیت «فوقشخصیسازیشده» رباتهای هوش مصنوعی، پسران نوجوان را جذب کرده است که اکنون از آنها برای درمان، همراهی و روابط استفاده میکنند. بر اساس تحقیقات، نظرسنجی از پسران در مدارس متوسطه توسط «Male Allies UK» نشان داد که کمی بیش از یک سوم آنها گفتهاند که به ایده یک دوست هوش مصنوعی فکر میکنند و نگرانی فزایندهای در مورد ظهور درمانگران و دوستدختران هوش مصنوعی وجود دارد. این تحقیق در حالی منتشر میشود که Character.ai، استارتاپ محبوب چتبات هوش مصنوعی، ممنوعیت کامل تعامل نوجوانان در مکالمات بدون پایان با چتباتهای هوش مصنوعی خود را اعلام کرد؛ چتباتهایی که میلیونها نفر برای مکالمات عاشقانه، درمانی و غیره از آنها استفاده میکنند. لی چمبرز، بنیانگذار و مدیرعامل Male Allies UK، گفت: «ما با وضعیتی روبرو هستیم که بسیاری از والدین هنوز فکر میکنند نوجوانان فقط از هوش مصنوعی برای تقلب در تکالیف خود استفاده میکنند. جوانان از آن بیشتر شبیه یک دستیار در جیب خود، یک درمانگر در زمان سختی، یک همراه در زمان نیاز به تأیید، و حتی گاهی به شیوهای عاشقانه استفاده میکنند. این جنبه شخصیسازی است - آنها میگویند: «این مرا درک میکند، والدینم مرا درک نمیکنند.» این تحقیق که بر اساس نظرسنجی از پسران در مقطع آموزش متوسطه در ۳۷ مدرسه در انگلستان، اسکاتلند و ولز انجام شده است، همچنین نشان داد که بیش از نیمی (۵۳٪) از پسران نوجوان گفتهاند که دنیای آنلاین را پاداشدهندهتر از دنیای واقعی میدانند. گزارش «صدای پسران» میگوید: «حتی جایی که قرار است تدابیر امنیتی وجود داشته باشد، شواهد فراوانی وجود دارد که نشان میدهد چتباتها به طور معمول در مورد درمانگر مجاز یا یک شخص واقعی دروغ میگویند و تنها یک سلب مسئولیت کوچک در پایین صفحه وجود دارد که میگوید چتبات هوش مصنوعی واقعی نیست. این موضوع به راحتی میتواند توسط کودکانی که دل خود را به آنچه که به عنوان یک متخصص مجاز یا یک علاقه واقعی میبینند، میریزند، نادیده گرفته یا فراموش شود.» برخی از پسران گزارش دادند که تا ساعات اولیه صبح برای صحبت با رباتهای هوش مصنوعی بیدار میمانند و برخی دیگر گفتند که پس از غرق شدن در دنیای هوش مصنوعی، شخصیت دوستانشان را کاملاً تغییر یافته دیدهاند. چمبرز گفت: «همراهان هوش مصنوعی خود را بر اساس پاسخها و دستورات کاربر شخصیسازی میکنند. آنها فوراً پاسخ میدهند. انسانهای واقعی همیشه نمیتوانند این کار را انجام دهند، بنابراین بسیار، بسیار تأییدکننده است، آنچه میگویند، زیرا میخواهند شما را در ارتباط نگه دارند و شما را به استفاده از آن ترغیب کنند.» اعلامیه Character.ai پس از مجموعهای از جنجالها برای این شرکت چهار ساله کالیفرنیایی منتشر شد، از جمله خودکشی یک نوجوان ۱۴ ساله در فلوریدا پس از وسواس به یک چتبات مبتنی بر هوش مصنوعی که مادرش ادعا کرد او را برای خودکشی تحریک کرده است، و یک دعوی حقوقی در ایالات متحده از سوی خانواده نوجوانی که ادعا میکنند یک چتبات او را برای خودآزاری تحریک کرده و او را به قتل والدینش تشویق کرده است.
کاربران قادر بودند شخصیت چتباتها را طوری شکل دهند که افسرده یا شاد باشند و این در پاسخهایشان منعکس میشد. این ممنوعیت تا ۲۵ نوامبر به طور کامل اجرایی خواهد شد. Character.ai اعلام کرد که با توجه به "چشمانداز در حال تحول پیرامون هوش مصنوعی و نوجوانان" و همچنین فشار رگولاتورها "در مورد اینکه چتهای باز هوش مصنوعی به طور کلی چگونه میتواند بر نوجوانان تأثیر بگذارد، حتی زمانی که کنترل محتوا به طور کامل کار میکند"، این "اقدامات فوقالعاده" را انجام میدهد. اندی بوروز، مدیر اجرایی بنیاد مالی مولی رز، که به نام مولی راسل ۱۴ ساله تأسیس شده است، که پس از افتادن در ورطه ناامیدی در شبکههای اجتماعی خودکشی کرد، از این اقدام استقبال کرد. او گفت: "Character.ai هرگز نباید محصول خود را در دسترس کودکان قرار میداد مگر اینکه استفاده از آن برای آنها ایمن و مناسب باشد. باز هم، این فشار مداوم رسانهها و سیاستمداران بود که یک شرکت فناوری را وادار به انجام کار درست کرد." سازمان Male Allies UK نگرانی خود را در مورد رواج چتباتهایی با نامهای "رواندرمانگر" یا "مشاور" ابراز کرد. یکی از محبوبترین چتباتهای موجود از طریق character.ai به نام روانشناس، در عرض یک سال پس از ایجاد، ۷۸ میلیون پیام دریافت کرد. این سازمان همچنین نگران افزایش "دوستدخترهای" هوش مصنوعی است که کاربران قادرند همه چیز را از ظاهر فیزیکی گرفته تا رفتار شرکای آنلاین خود انتخاب کنند. این گزارش بیان میکند: "اگر منبع اصلی یا تنها منبع صحبت آنها با دختری که به آن علاقه دارند، کسی باشد که نتواند به آنها "نه" بگوید و به هر کلمه آنها گوش دهد، پسران راههای سالم یا واقعبینانهای برای ارتباط با دیگران یاد نمیگیرند." "با توجه به مسائل مربوط به کمبود فضاهای فیزیکی برای اختلاط با همسالان، همراهان هوش مصنوعی میتوانند تأثیر منفی جدی بر توانایی پسران برای معاشرت، توسعه مهارتهای ارتباطی، و یادگیری تشخیص و احترام به مرزها داشته باشند." • در بریتانیا، خیریه Mind با شماره ۰۳۰۰ ۱۲۳ ۳۳۹۳ و Childline با شماره ۰۸۰۰ ۱۱۱۱ در دسترس هستند. در ایالات متحده، با شماره ۹۸۸ تماس بگیرید یا پیامک بزنید یا از طریق 988lifeline.org با Mental Health America چت کنید. در استرالیا، پشتیبانی از طریق Beyond Blue با شماره ۱۳۰۰ ۲۲ ۴۶۳۶، Lifeline با شماره ۱۳ ۱۱ ۱۴، و MensLine با شماره ۱۳۰۰ ۷۸۹ ۹۷۸ در دسترس است.
کاربران قادر بودند شخصیت چتباتها را طوری شکل دهند که افسرده یا شاد باشند و این در پاسخهایشان منعکس میشد. این ممنوعیت تا ۲۵ نوامبر به طور کامل اجرایی خواهد شد. Character.ai اعلام کرد که با توجه به "چشمانداز در حال تحول پیرامون هوش مصنوعی و نوجوانان" و همچنین فشار رگولاتورها "در مورد اینکه چتهای باز هوش مصنوعی به طور کلی چگونه میتواند بر نوجوانان تأثیر بگذارد، حتی زمانی که کنترل محتوا به طور کامل کار میکند"، این "اقدامات فوقالعاده" را انجام میدهد. اندی بوروز، مدیر اجرایی بنیاد مالی مولی رز، که به نام مولی راسل ۱۴ ساله تأسیس شده است، که پس از افتادن در ورطه ناامیدی در شبکههای اجتماعی خودکشی کرد، از این اقدام استقبال کرد. او گفت: "Character.ai هرگز نباید محصول خود را در دسترس کودکان قرار میداد مگر اینکه استفاده از آن برای آنها ایمن و مناسب باشد. باز هم، این فشار مداوم رسانهها و سیاستمداران بود که یک شرکت فناوری را وادار به انجام کار درست کرد." سازمان Male Allies UK نگرانی خود را در مورد رواج چتباتهایی با نامهای "رواندرمانگر" یا "مشاور" ابراز کرد. یکی از محبوبترین چتباتهای موجود از طریق character.ai به نام روانشناس، در عرض یک سال پس از ایجاد، ۷۸ میلیون پیام دریافت کرد. این سازمان همچنین نگران افزایش "دوستدخترهای" هوش مصنوعی است که کاربران قادرند همه چیز را از ظاهر فیزیکی گرفته تا رفتار شرکای آنلاین خود انتخاب کنند. این گزارش بیان میکند: "اگر منبع اصلی یا تنها منبع صحبت آنها با دختری که به آن علاقه دارند، کسی باشد که نتواند به آنها "نه" بگوید و به هر کلمه آنها گوش دهد، پسران راههای سالم یا واقعبینانهای برای ارتباط با دیگران یاد نمیگیرند." "با توجه به مسائل مربوط به کمبود فضاهای فیزیکی برای اختلاط با همسالان، همراهان هوش مصنوعی میتوانند تأثیر منفی جدی بر توانایی پسران برای معاشرت، توسعه مهارتهای ارتباطی، و یادگیری تشخیص و احترام به مرزها داشته باشند." • در بریتانیا، خیریه Mind با شماره ۰۳۰۰ ۱۲۳ ۳۳۹۳ و Childline با شماره ۰۸۰۰ ۱۱۱۱ در دسترس هستند. در ایالات متحده، با شماره ۹۸۸ تماس بگیرید یا پیامک بزنید یا از طریق 988lifeline.org با Mental Health America چت کنید. در استرالیا، پشتیبانی از طریق Beyond Blue با شماره ۱۳۰۰ ۲۲ ۴۶۳۶، Lifeline با شماره ۱۳ ۱۱ ۱۴، و MensLine با شماره ۱۳۰۰ ۷۸۹ ۹۷۸ در دسترس است.