اوپن‌ای‌آی تخمین می‌زند که بیش از یک میلیون نفر در هفته هنگام چت با چت‌جی‌پی‌تی قصد خودکشی نشان می‌دهند.

📅 1404/8/6 6:26 | ⏱️ 5 دقیقه مطالعه | مشاهده در منبع اصلی
اوپن‌ای‌آی تخمین می‌زند که بیش از یک میلیون نفر در هفته هنگام چت با چت‌جی‌پی‌تی قصد خودکشی نشان می‌دهند.
بر اساس پستی که روز دوشنبه توسط OpenAI منتشر شد، بیش از یک میلیون کاربر ChatGPT هر هفته پیام‌هایی ارسال می‌کنند که شامل «نشانه‌های صریح برنامه‌ریزی یا قصد احتمالی خودکشی» است. این یافته که بخشی از به‌روزرسانی در مورد نحوه برخورد چت‌بات با مکالمات حساس است، یکی از مستقیم‌ترین اظهارات غول هوش مصنوعی در مورد مقیاس تأثیرگذاری هوش مصنوعی بر مشکلات سلامت روان است. علاوه بر تخمین‌های مربوط به افکار خودکشی و تعاملات مرتبط، OpenAI همچنین اعلام کرد که حدود ۰.۰۷ درصد از کاربران فعال در یک هفته معین - حدود ۵۶۰,۰۰۰ نفر از ۸۰۰ میلیون کاربر هفتگی این شرکت - «علائم احتمالی فوریت‌های سلامت روان مرتبط با روان‌پریشی یا شیدایی» را نشان می‌دهند. این پست هشدار داد که تشخیص یا اندازه‌گیری این مکالمات دشوار است و این یک تحلیل اولیه است. همزمان با انتشار داده‌های OpenAI در مورد مسائل سلامت روان مرتبط با محصول اصلی آن، این شرکت با افزایش نظارت‌ها پس از شکایت پر سر و صدای خانواده یک نوجوان که پس از تعامل گسترده با ChatGPT خودکشی کرد، روبرو است. کمیسیون فدرال تجارت ماه گذشته نیز تحقیقات گسترده‌ای را در مورد شرکت‌های سازنده چت‌بات‌های هوش مصنوعی، از جمله OpenAI، آغاز کرد تا مشخص شود چگونه تأثیرات منفی بر کودکان و نوجوانان را اندازه‌گیری می‌کنند. OpenAI در پست خود ادعا کرد که به‌روزرسانی اخیر GPT-5 تعداد رفتارهای نامطلوب محصول خود را کاهش داده و ایمنی کاربر را در ارزیابی مدلی شامل بیش از ۱۰۰۰ مکالمه مربوط به خودآزاری و خودکشی بهبود بخشیده است. این شرکت بلافاصله به درخواست اظهار نظر پاسخ نداد. در پست این شرکت آمده است: «ارزیابی‌های خودکار جدید ما، مدل جدید GPT-5 را ۹۱ درصد مطابق با رفتارهای مطلوب ما ارزیابی می‌کنند، در حالی که مدل قبلی GPT-5 این میزان ۷۷ درصد بود.» OpenAI اظهار داشت که GPT-5 دسترسی به خطوط کمک بحران را گسترش داده و یادآوری‌هایی را برای کاربران برای استراحت در طول جلسات طولانی اضافه کرده است. این شرکت گفت برای بهبود مدل، ۱۷۰ پزشک از شبکه جهانی پزشکان متخصص مراقبت‌های بهداشتی خود را برای کمک به تحقیقات خود در ماه‌های اخیر به کار گرفته است، که شامل رتبه‌بندی ایمنی پاسخ‌های مدل و کمک به نوشتن پاسخ‌های چت‌بات به سؤالات مربوط به سلامت روان می‌شد. OpenAI گفت: «به عنوان بخشی از این کار، روانپزشکان و روانشناسان بیش از ۱۸۰۰ پاسخ مدل را که شامل موقعیت‌های جدی سلامت روان بود، بررسی کردند و پاسخ‌های مدل چت جدید GPT-5 را با مدل‌های قبلی مقایسه کردند.» تعریف شرکت از «مطلوب» شامل تعیین این بود که آیا گروهی از کارشناسان آن در مورد پاسخ مناسب در موقعیت‌های خاص به نتیجه یکسانی رسیده‌اند یا خیر.

محققان هوش مصنوعی و مدافعان سلامت عمومی مدت‌هاست که نسبت به تمایل چت‌بات‌ها به تأیید تصمیمات یا توهمات کاربران، صرف‌نظر از مضر بودن آن‌ها، که به عنوان «چاپلوسی» شناخته می‌شود، هشدار داده‌اند. کارشناسان سلامت روان نیز نگران استفاده افراد از چت‌بات‌های هوش مصنوعی برای حمایت روانی بوده‌اند و نسبت به آسیب احتمالی به کاربران آسیب‌پذیر هشدار داده‌اند. لحن پست اوپن‌ای‌آی، این شرکت را از هرگونه ارتباط سببی احتمالی بین محصول خود و بحران‌های سلامت روانی که کاربرانش تجربه می‌کنند، دور می‌کند. در پست اوپن‌ای‌آی آمده است: «علائم سلامت روان و پریشانی عاطفی به طور فراگیر در جوامع بشری وجود دارد و افزایش پایگاه کاربران به این معنی است که بخشی از مکالمات ChatGPT شامل این موقعیت‌ها می‌شود.» سم آلتمن، مدیرعامل اوپن‌ای‌آی، اوایل این ماه در پستی در ایکس ادعا کرد که این شرکت در درمان مسائل سلامت روان پیشرفت‌هایی داشته و اعلام کرد که اوپن‌ای‌آی محدودیت‌ها را کاهش داده و به زودی به بزرگسالان اجازه تولید محتوای اروتیک را خواهد داد. آلتمن در پستی نوشت: «ما ChatGPT را بسیار محدودکننده ساختیم تا اطمینان حاصل کنیم که در مسائل سلامت روان دقت می‌کنیم. ما متوجه شدیم که این امر باعث شد برای بسیاری از کاربرانی که مشکلات سلامت روان نداشتند، کمتر مفید/لذت‌بخش باشد، اما با توجه به جدی بودن موضوع، می‌خواستیم این موضوع را به درستی انجام دهیم.» وی افزود: «اکنون که توانسته‌ایم مسائل جدی سلامت روان را کاهش دهیم و ابزارهای جدیدی داریم، در بیشتر موارد می‌توانیم محدودیت‌ها را با خیال راحت کاهش دهیم.» در ایالات متحده، می‌توانید با شماره ۹۸۸ با خط ملی پیشگیری از خودکشی تماس بگیرید یا پیامک بزنید، در وب‌سایت 988lifeline.org چت کنید، یا با ارسال پیامک HOME به شماره ۷۴۱۷۴۱ با یک مشاور بحران ارتباط برقرار کنید. در بریتانیا و ایرلند، ساماریتان‌ها را می‌توان با شماره تلفن رایگان ۱۱۶ ۱۲۳ یا از طریق ایمیل jo@samaritans.org یا jo@samaritans.ie در دسترس قرار داد. در استرالیا، سرویس پشتیبانی بحران لایف‌لاین ۱3 ۱۱ ۱4 است. سایر خطوط کمک بین‌المللی را می‌توان در befrienders.org یافت.