اوپنایآی تخمین میزند که بیش از یک میلیون نفر در هفته هنگام چت با چتجیپیتی قصد خودکشی نشان میدهند.
بر اساس پستی که روز دوشنبه توسط OpenAI منتشر شد، بیش از یک میلیون کاربر ChatGPT هر هفته پیامهایی ارسال میکنند که شامل «نشانههای صریح برنامهریزی یا قصد احتمالی خودکشی» است. این یافته که بخشی از بهروزرسانی در مورد نحوه برخورد چتبات با مکالمات حساس است، یکی از مستقیمترین اظهارات غول هوش مصنوعی در مورد مقیاس تأثیرگذاری هوش مصنوعی بر مشکلات سلامت روان است. علاوه بر تخمینهای مربوط به افکار خودکشی و تعاملات مرتبط، OpenAI همچنین اعلام کرد که حدود ۰.۰۷ درصد از کاربران فعال در یک هفته معین - حدود ۵۶۰,۰۰۰ نفر از ۸۰۰ میلیون کاربر هفتگی این شرکت - «علائم احتمالی فوریتهای سلامت روان مرتبط با روانپریشی یا شیدایی» را نشان میدهند. این پست هشدار داد که تشخیص یا اندازهگیری این مکالمات دشوار است و این یک تحلیل اولیه است. همزمان با انتشار دادههای OpenAI در مورد مسائل سلامت روان مرتبط با محصول اصلی آن، این شرکت با افزایش نظارتها پس از شکایت پر سر و صدای خانواده یک نوجوان که پس از تعامل گسترده با ChatGPT خودکشی کرد، روبرو است. کمیسیون فدرال تجارت ماه گذشته نیز تحقیقات گستردهای را در مورد شرکتهای سازنده چتباتهای هوش مصنوعی، از جمله OpenAI، آغاز کرد تا مشخص شود چگونه تأثیرات منفی بر کودکان و نوجوانان را اندازهگیری میکنند. OpenAI در پست خود ادعا کرد که بهروزرسانی اخیر GPT-5 تعداد رفتارهای نامطلوب محصول خود را کاهش داده و ایمنی کاربر را در ارزیابی مدلی شامل بیش از ۱۰۰۰ مکالمه مربوط به خودآزاری و خودکشی بهبود بخشیده است. این شرکت بلافاصله به درخواست اظهار نظر پاسخ نداد. در پست این شرکت آمده است: «ارزیابیهای خودکار جدید ما، مدل جدید GPT-5 را ۹۱ درصد مطابق با رفتارهای مطلوب ما ارزیابی میکنند، در حالی که مدل قبلی GPT-5 این میزان ۷۷ درصد بود.» OpenAI اظهار داشت که GPT-5 دسترسی به خطوط کمک بحران را گسترش داده و یادآوریهایی را برای کاربران برای استراحت در طول جلسات طولانی اضافه کرده است. این شرکت گفت برای بهبود مدل، ۱۷۰ پزشک از شبکه جهانی پزشکان متخصص مراقبتهای بهداشتی خود را برای کمک به تحقیقات خود در ماههای اخیر به کار گرفته است، که شامل رتبهبندی ایمنی پاسخهای مدل و کمک به نوشتن پاسخهای چتبات به سؤالات مربوط به سلامت روان میشد. OpenAI گفت: «به عنوان بخشی از این کار، روانپزشکان و روانشناسان بیش از ۱۸۰۰ پاسخ مدل را که شامل موقعیتهای جدی سلامت روان بود، بررسی کردند و پاسخهای مدل چت جدید GPT-5 را با مدلهای قبلی مقایسه کردند.» تعریف شرکت از «مطلوب» شامل تعیین این بود که آیا گروهی از کارشناسان آن در مورد پاسخ مناسب در موقعیتهای خاص به نتیجه یکسانی رسیدهاند یا خیر.
محققان هوش مصنوعی و مدافعان سلامت عمومی مدتهاست که نسبت به تمایل چتباتها به تأیید تصمیمات یا توهمات کاربران، صرفنظر از مضر بودن آنها، که به عنوان «چاپلوسی» شناخته میشود، هشدار دادهاند. کارشناسان سلامت روان نیز نگران استفاده افراد از چتباتهای هوش مصنوعی برای حمایت روانی بودهاند و نسبت به آسیب احتمالی به کاربران آسیبپذیر هشدار دادهاند. لحن پست اوپنایآی، این شرکت را از هرگونه ارتباط سببی احتمالی بین محصول خود و بحرانهای سلامت روانی که کاربرانش تجربه میکنند، دور میکند. در پست اوپنایآی آمده است: «علائم سلامت روان و پریشانی عاطفی به طور فراگیر در جوامع بشری وجود دارد و افزایش پایگاه کاربران به این معنی است که بخشی از مکالمات ChatGPT شامل این موقعیتها میشود.» سم آلتمن، مدیرعامل اوپنایآی، اوایل این ماه در پستی در ایکس ادعا کرد که این شرکت در درمان مسائل سلامت روان پیشرفتهایی داشته و اعلام کرد که اوپنایآی محدودیتها را کاهش داده و به زودی به بزرگسالان اجازه تولید محتوای اروتیک را خواهد داد. آلتمن در پستی نوشت: «ما ChatGPT را بسیار محدودکننده ساختیم تا اطمینان حاصل کنیم که در مسائل سلامت روان دقت میکنیم. ما متوجه شدیم که این امر باعث شد برای بسیاری از کاربرانی که مشکلات سلامت روان نداشتند، کمتر مفید/لذتبخش باشد، اما با توجه به جدی بودن موضوع، میخواستیم این موضوع را به درستی انجام دهیم.» وی افزود: «اکنون که توانستهایم مسائل جدی سلامت روان را کاهش دهیم و ابزارهای جدیدی داریم، در بیشتر موارد میتوانیم محدودیتها را با خیال راحت کاهش دهیم.» در ایالات متحده، میتوانید با شماره ۹۸۸ با خط ملی پیشگیری از خودکشی تماس بگیرید یا پیامک بزنید، در وبسایت 988lifeline.org چت کنید، یا با ارسال پیامک HOME به شماره ۷۴۱۷۴۱ با یک مشاور بحران ارتباط برقرار کنید. در بریتانیا و ایرلند، ساماریتانها را میتوان با شماره تلفن رایگان ۱۱۶ ۱۲۳ یا از طریق ایمیل jo@samaritans.org یا jo@samaritans.ie در دسترس قرار داد. در استرالیا، سرویس پشتیبانی بحران لایفلاین ۱3 ۱۱ ۱4 است. سایر خطوط کمک بینالمللی را میتوان در befrienders.org یافت.
محققان هوش مصنوعی و مدافعان سلامت عمومی مدتهاست که نسبت به تمایل چتباتها به تأیید تصمیمات یا توهمات کاربران، صرفنظر از مضر بودن آنها، که به عنوان «چاپلوسی» شناخته میشود، هشدار دادهاند. کارشناسان سلامت روان نیز نگران استفاده افراد از چتباتهای هوش مصنوعی برای حمایت روانی بودهاند و نسبت به آسیب احتمالی به کاربران آسیبپذیر هشدار دادهاند. لحن پست اوپنایآی، این شرکت را از هرگونه ارتباط سببی احتمالی بین محصول خود و بحرانهای سلامت روانی که کاربرانش تجربه میکنند، دور میکند. در پست اوپنایآی آمده است: «علائم سلامت روان و پریشانی عاطفی به طور فراگیر در جوامع بشری وجود دارد و افزایش پایگاه کاربران به این معنی است که بخشی از مکالمات ChatGPT شامل این موقعیتها میشود.» سم آلتمن، مدیرعامل اوپنایآی، اوایل این ماه در پستی در ایکس ادعا کرد که این شرکت در درمان مسائل سلامت روان پیشرفتهایی داشته و اعلام کرد که اوپنایآی محدودیتها را کاهش داده و به زودی به بزرگسالان اجازه تولید محتوای اروتیک را خواهد داد. آلتمن در پستی نوشت: «ما ChatGPT را بسیار محدودکننده ساختیم تا اطمینان حاصل کنیم که در مسائل سلامت روان دقت میکنیم. ما متوجه شدیم که این امر باعث شد برای بسیاری از کاربرانی که مشکلات سلامت روان نداشتند، کمتر مفید/لذتبخش باشد، اما با توجه به جدی بودن موضوع، میخواستیم این موضوع را به درستی انجام دهیم.» وی افزود: «اکنون که توانستهایم مسائل جدی سلامت روان را کاهش دهیم و ابزارهای جدیدی داریم، در بیشتر موارد میتوانیم محدودیتها را با خیال راحت کاهش دهیم.» در ایالات متحده، میتوانید با شماره ۹۸۸ با خط ملی پیشگیری از خودکشی تماس بگیرید یا پیامک بزنید، در وبسایت 988lifeline.org چت کنید، یا با ارسال پیامک HOME به شماره ۷۴۱۷۴۱ با یک مشاور بحران ارتباط برقرار کنید. در بریتانیا و ایرلند، ساماریتانها را میتوان با شماره تلفن رایگان ۱۱۶ ۱۲۳ یا از طریق ایمیل jo@samaritans.org یا jo@samaritans.ie در دسترس قرار داد. در استرالیا، سرویس پشتیبانی بحران لایفلاین ۱3 ۱۱ ۱4 است. سایر خطوط کمک بینالمللی را میتوان در befrienders.org یافت.