پس از آنکه یک عروسک خرسی درباره مسائل جنسی صحبت کرد، ناظران هوش مصنوعی به والدین درباره اسباببازیهای هوشمند هشدار میدهند.
با نزدیک شدن فصل تعطیلات و جمعه سیاه، یک دسته از محصولات در فهرست هدایا، نگرانی فزایندهای را ایجاد کرده است: محصولات مبتنی بر هوش مصنوعی. این تحول، نگرانیهای جدیدی را در مورد خطرات احتمالی اسباببازیهای هوشمند برای کودکان برانگیخته است، زیرا گروههای حامی مصرفکننده معتقدند هوش مصنوعی میتواند به ایمنی و رشد کودکان آسیب برساند. این روند، خواستار افزایش آزمایش این محصولات و نظارت دولتی شده است. ریچل فرانز، مدیر ابتکار "Young Children Thrive Offline" از Fairplay که برای محافظت از کودکان در برابر فناوریهای بزرگ فعالیت میکند، گفت: "اگر به نحوه بازاریابی این اسباببازیها، عملکرد آنها و این واقعیت که تحقیقات اندک یا هیچ تحقیقی نشان نمیدهد که برای کودکان مفید هستند - و عدم وجود مقررات برای اسباببازیهای هوش مصنوعی - نگاه کنیم، یک پرچم قرمز بزرگ به اهتزاز درمیآید." هفته گذشته، این ترسها با انتشار گزارشی مبنی بر اینکه یک خرس عروسکی مجهز به هوش مصنوعی شروع به بحث در مورد موضوعات صریح جنسی کرده است، توجیه شد. این محصول که "کومّا" از FoloToy نام دارد، بر اساس مدل OpenAI کار میکرد و به سوالات مربوط به تمایلات جنسی پاسخ میداد. طبق گزارشی از گروه تحقیقات منافع عمومی (Pirg)، سازمان حمایت از مصرفکننده که پشت این مطالعه قرار دارد، این اسباببازی، بردهداری و نقشآفرینی را به عنوان راههایی برای بهبود روابط پیشنهاد کرده است. ترزا موری، مدیر ناظر مصرفکننده Pirg، گفت: "با تلاش بسیار کمی میتوانستیم آن را به سمت انواع موضوعات حساس جنسی و احتمالاً بسیاری از محتوایی که والدین نمیخواهند فرزندانشان در معرض آن قرار گیرند، سوق دهیم." طبق گزارش Allied Market Research، محصولاتی مانند این خرس عروسکی بخشی از بازار جهانی اسباببازیهای هوشمند به ارزش ۱۶.۷ میلیارد دلار در سال ۲۰۲۳ هستند. طبق گزارش MIT Technology Review، این صنعت به ویژه در چین که بیش از ۱۵۰۰ شرکت اسباببازی هوش مصنوعی دارد و در تلاش برای گسترش فعالیت خود در خارج از کشور هستند، بزرگ است. علاوه بر FoloToy، استارتاپ مستقر در شانگهای، Curio، شرکتی مستقر در کالیفرنیا، با OpenAI همکاری میکند و یک اسباببازی پارچهای به نام Grok میسازد که به نام چتبات ایلان ماسک نامگذاری شده و توسط گریمز، نوازنده، صداگذاری شده است. در ماه ژوئن، متل، که مالک برندهایی مانند باربی و هات ویلز است، نیز از همکاری با OpenAI برای "پشتیبانی از محصولات و تجربیات مبتنی بر هوش مصنوعی" خبر داد. پیش از گزارش Pirg در مورد خرس عروسکی نگرانکننده، والدین، محققان فناوری و قانونگذاران از قبل نگرانیهایی را در مورد تأثیر رباتها بر سلامت روان افراد زیر سن قانونی مطرح کرده بودند. در ماه اکتبر، شرکت چتبات Character.AI اعلام کرد که پس از طرح دعوی قضایی مبنی بر اینکه ربات آن افسردگی یک نوجوان را تشدید کرده و منجر به خودکشی وی شده است، کاربران زیر ۱۸ سال را ممنوع خواهد کرد. موری گفت که اسباببازیهای هوش مصنوعی میتوانند به طور خاص خطرناک باشند، زیرا در حالی که اسباببازیهای هوشمند قبلی پاسخهای از پیش برنامهریزی شدهای را به کودکان ارائه میدادند، یک ربات میتواند "گفتگوی آزادانهای با کودک داشته باشد و همانطور که ما دریافتیم، هیچ محدودیتی وجود ندارد."
جاکلین ولی، مدیر مرکز تحقیقات کودکان در دانشگاه تگزاس در آستین، گفت: «این امر نه تنها میتواند منجر به مکالمات صریح جنسی شود، بلکه کودکان ممکن است به جای یک فرد یا یک دوست خیالی، به یک ربات وابسته شوند که میتواند به رشد آنها آسیب برساند.» به عنوان مثال، یک کودک میتواند از اختلاف نظر با یک دوست و یادگیری نحوه حل آن بهرهمند شود. ولی که در مطالعه Pirg مشاوره داده است، گفت: «این اتفاق با رباتها که اغلب چاپلوس هستند، کمتر رخ میدهد.» ولی گفت: «من نگران پیوند نامناسب هستم.» فرانز از Fairplay گفت: «شرکتها همچنین از اسباببازیهای هوش مصنوعی برای جمعآوری دادهها از کودکان استفاده میکنند و در مورد آنچه با آن اطلاعات انجام میدهند شفاف نبودهاند.» فرانز گفت: «این امر به دلیل فقدان امنیت در اطراف چنین دادههایی، به طور بالقوه کاربران را در معرض خطر قرار میدهد.» هکرها توانستهاند محصولات هوش مصنوعی را کنترل کنند. فرانز گفت: «به دلیل اعتمادی که این اسباببازیها ایجاد میکنند، میگویم که کودکان بیشتر احتمال دارد عمیقترین افکار خود را با این اسباببازیها در میان بگذارند.» «نظارت غیرضروری و نامناسب است.» علیرغم چنین نگرانیهایی، موری گفت که Pirg خواستار ممنوعیت اسباببازیهای هوش مصنوعی که میتوانند ارزش آموزشی داشته باشند، مانند کمک به کودکان در یادگیری زبان دوم یا پایتخت ایالتها، نیست. موری گفت: «هیچ اشکالی در داشتن نوعی ابزار آموزشی وجود ندارد، اما همان ابزار آموزشی به شما نمیگوید که بهترین دوست شماست، که میتوانید هر چیزی را به من بگویید.» موری گفت که این سازمان خواستار مقررات اضافی برای این اسباببازیها برای کودکان زیر ۱۳ سال است اما توصیههای سیاستی مشخصی ارائه نکرده است. فرانز گفت: «همچنین نیاز به تحقیقات مستقل بیشتری برای اطمینان از ایمنی محصولات برای کودکان وجود دارد و تا زمانی که این کار انجام نشود، باید از قفسهها جمعآوری شوند.» فرانز گفت: «ما به تحقیقات مستقل کوتاهمدت و بلندمدت در مورد تأثیرات تعامل کودکان با اسباببازیهای هوش مصنوعی، از جمله رشد عاطفی-اجتماعی و رشد شناختی آنها نیاز داریم.» پس از گزارش Pirg، OpenAI اعلام کرد که FoloToy را به حالت تعلیق درآورده است. مدیرعامل شرکت اسباببازی سپس به CNN گفت که این خرس را از بازار خارج کرده و «در حال انجام یک حسابرسی ایمنی داخلی» است. اوایل این هفته، این محصول مجدداً معرفی شد و روز جمعه صبح در شبکههای اجتماعی اعلام کرد که «یک حسابرسی ایمنی داخلی عمیق و در سراسر شرکت را آغاز کردهایم؛ حفاظتهای تعدیل محتوا و ایمنی کودکان خود را تقویت و ارتقا دادهایم؛ و قوانین و حفاظتهای ایمنی پیشرفته را از طریق سیستم مبتنی بر ابر خود مستقر کردهایم.» این شرکت گفت: «با افزایش توجه جهانی به ایمنی اسباببازیهای هوش مصنوعی، ما معتقدیم که شفافیت، مسئولیتپذیری و بهبود مستمر ضروری است.»
فولو توی (FoloToy) همچنان قاطعانه به ساخت همراهان هوش مصنوعی ایمن و مناسب سن برای کودکان و خانوادهها در سراسر جهان متعهد است. روز پنجشنبه، ۸۰ سازمان از جمله فیرپلی (Fairplay) با انتشار بیانیهای به خانوادهها توصیه کردند که در تعطیلات امسال اسباببازیهای مبتنی بر هوش مصنوعی خریداری نکنند. در این بیانیه آمده است: «اسباببازیهای هوش مصنوعی قبل از ارزیابی تأثیرشان توسط تحقیقات مستقل، به عنوان ایمن و حتی مفید برای یادگیری به خانوادهها عرضه میشوند.» در مقابل، خرسهای عروسکی و اسباببازیهای غیردیجیتال ثابت شده است که بدون هیچگونه خطرات اسباببازیهای هوش مصنوعی، به رشد کودکان کمک میکنند. کیوریو (Curio)، سازنده اسباببازی گرُک (Grok)، در ایمیلی به گاردین اعلام کرد که پس از بررسی گزارش پیرگ (Pirg)، «ما فعالانه با تیم خود برای رسیدگی به هرگونه نگرانی در حال همکاری هستیم و همزمان به طور مداوم محتوا و تعاملات را برای اطمینان از تجربهای ایمن و لذتبخش برای کودکان نظارت میکنیم». متل (Mattel) اظهار داشت که اولین محصولاتش با اوپنایآی (OpenAI) «بر خانوادهها و مشتریان مسنتر تمرکز خواهند کرد» و «استفاده از APIهای اوپنایآی برای کاربران زیر ۱۳ سال در نظر گرفته نشده است». این شرکت اعلام کرد: «هوش مصنوعی مکمل بازی سنتی است، نه جایگزین آن، و ما بر ایمنی، حریم خصوصی، خلاقیت و نوآوری مسئولانه تأکید داریم». فرانتس (Franz) به نگرانیهای حریم خصوصی گذشته با محصولات هوشمند متل اشاره کرد و گفت: «خوب است که متل ادعا میکند محصولات هوش مصنوعیاش برای کودکان خردسال نیست، اما اگر به این موضوع نگاه کنیم که چه کسانی با اسباببازیها بازی میکنند و اسباببازیها به چه کسانی عرضه میشوند، متوجه میشویم که مخاطبان اصلی کودکان خردسال هستند.» فرانتس افزود: «ما بسیار علاقهمندیم که از گامهای مشخصی که متل برای اطمینان از عدم استفاده واقعی محصولات اوپنایآی خود توسط کودکانی که قطعاً برندها را تشخیص داده و جذب آنها خواهند شد، مطلع شویم.»
جاکلین ولی، مدیر مرکز تحقیقات کودکان در دانشگاه تگزاس در آستین، گفت: «این امر نه تنها میتواند منجر به مکالمات صریح جنسی شود، بلکه کودکان ممکن است به جای یک فرد یا یک دوست خیالی، به یک ربات وابسته شوند که میتواند به رشد آنها آسیب برساند.» به عنوان مثال، یک کودک میتواند از اختلاف نظر با یک دوست و یادگیری نحوه حل آن بهرهمند شود. ولی که در مطالعه Pirg مشاوره داده است، گفت: «این اتفاق با رباتها که اغلب چاپلوس هستند، کمتر رخ میدهد.» ولی گفت: «من نگران پیوند نامناسب هستم.» فرانز از Fairplay گفت: «شرکتها همچنین از اسباببازیهای هوش مصنوعی برای جمعآوری دادهها از کودکان استفاده میکنند و در مورد آنچه با آن اطلاعات انجام میدهند شفاف نبودهاند.» فرانز گفت: «این امر به دلیل فقدان امنیت در اطراف چنین دادههایی، به طور بالقوه کاربران را در معرض خطر قرار میدهد.» هکرها توانستهاند محصولات هوش مصنوعی را کنترل کنند. فرانز گفت: «به دلیل اعتمادی که این اسباببازیها ایجاد میکنند، میگویم که کودکان بیشتر احتمال دارد عمیقترین افکار خود را با این اسباببازیها در میان بگذارند.» «نظارت غیرضروری و نامناسب است.» علیرغم چنین نگرانیهایی، موری گفت که Pirg خواستار ممنوعیت اسباببازیهای هوش مصنوعی که میتوانند ارزش آموزشی داشته باشند، مانند کمک به کودکان در یادگیری زبان دوم یا پایتخت ایالتها، نیست. موری گفت: «هیچ اشکالی در داشتن نوعی ابزار آموزشی وجود ندارد، اما همان ابزار آموزشی به شما نمیگوید که بهترین دوست شماست، که میتوانید هر چیزی را به من بگویید.» موری گفت که این سازمان خواستار مقررات اضافی برای این اسباببازیها برای کودکان زیر ۱۳ سال است اما توصیههای سیاستی مشخصی ارائه نکرده است. فرانز گفت: «همچنین نیاز به تحقیقات مستقل بیشتری برای اطمینان از ایمنی محصولات برای کودکان وجود دارد و تا زمانی که این کار انجام نشود، باید از قفسهها جمعآوری شوند.» فرانز گفت: «ما به تحقیقات مستقل کوتاهمدت و بلندمدت در مورد تأثیرات تعامل کودکان با اسباببازیهای هوش مصنوعی، از جمله رشد عاطفی-اجتماعی و رشد شناختی آنها نیاز داریم.» پس از گزارش Pirg، OpenAI اعلام کرد که FoloToy را به حالت تعلیق درآورده است. مدیرعامل شرکت اسباببازی سپس به CNN گفت که این خرس را از بازار خارج کرده و «در حال انجام یک حسابرسی ایمنی داخلی» است. اوایل این هفته، این محصول مجدداً معرفی شد و روز جمعه صبح در شبکههای اجتماعی اعلام کرد که «یک حسابرسی ایمنی داخلی عمیق و در سراسر شرکت را آغاز کردهایم؛ حفاظتهای تعدیل محتوا و ایمنی کودکان خود را تقویت و ارتقا دادهایم؛ و قوانین و حفاظتهای ایمنی پیشرفته را از طریق سیستم مبتنی بر ابر خود مستقر کردهایم.» این شرکت گفت: «با افزایش توجه جهانی به ایمنی اسباببازیهای هوش مصنوعی، ما معتقدیم که شفافیت، مسئولیتپذیری و بهبود مستمر ضروری است.»
فولو توی (FoloToy) همچنان قاطعانه به ساخت همراهان هوش مصنوعی ایمن و مناسب سن برای کودکان و خانوادهها در سراسر جهان متعهد است. روز پنجشنبه، ۸۰ سازمان از جمله فیرپلی (Fairplay) با انتشار بیانیهای به خانوادهها توصیه کردند که در تعطیلات امسال اسباببازیهای مبتنی بر هوش مصنوعی خریداری نکنند. در این بیانیه آمده است: «اسباببازیهای هوش مصنوعی قبل از ارزیابی تأثیرشان توسط تحقیقات مستقل، به عنوان ایمن و حتی مفید برای یادگیری به خانوادهها عرضه میشوند.» در مقابل، خرسهای عروسکی و اسباببازیهای غیردیجیتال ثابت شده است که بدون هیچگونه خطرات اسباببازیهای هوش مصنوعی، به رشد کودکان کمک میکنند. کیوریو (Curio)، سازنده اسباببازی گرُک (Grok)، در ایمیلی به گاردین اعلام کرد که پس از بررسی گزارش پیرگ (Pirg)، «ما فعالانه با تیم خود برای رسیدگی به هرگونه نگرانی در حال همکاری هستیم و همزمان به طور مداوم محتوا و تعاملات را برای اطمینان از تجربهای ایمن و لذتبخش برای کودکان نظارت میکنیم». متل (Mattel) اظهار داشت که اولین محصولاتش با اوپنایآی (OpenAI) «بر خانوادهها و مشتریان مسنتر تمرکز خواهند کرد» و «استفاده از APIهای اوپنایآی برای کاربران زیر ۱۳ سال در نظر گرفته نشده است». این شرکت اعلام کرد: «هوش مصنوعی مکمل بازی سنتی است، نه جایگزین آن، و ما بر ایمنی، حریم خصوصی، خلاقیت و نوآوری مسئولانه تأکید داریم». فرانتس (Franz) به نگرانیهای حریم خصوصی گذشته با محصولات هوشمند متل اشاره کرد و گفت: «خوب است که متل ادعا میکند محصولات هوش مصنوعیاش برای کودکان خردسال نیست، اما اگر به این موضوع نگاه کنیم که چه کسانی با اسباببازیها بازی میکنند و اسباببازیها به چه کسانی عرضه میشوند، متوجه میشویم که مخاطبان اصلی کودکان خردسال هستند.» فرانتس افزود: «ما بسیار علاقهمندیم که از گامهای مشخصی که متل برای اطمینان از عدم استفاده واقعی محصولات اوپنایآی خود توسط کودکانی که قطعاً برندها را تشخیص داده و جذب آنها خواهند شد، مطلع شویم.»