هشدار به مصرفکنندگان بریتانیایی درباره چتباتهای هوش مصنوعی که مشاورههای مالی نادرست ارائه میدهند
چتباتهای هوش مصنوعی نکات مالی نادرست ارائه میدهند، به مصرفکنندگان بریتانیایی مشاوره مالیاتی گمراهکننده میدهند و طبق تحقیقات، پیشنهاد خرید بیمه مسافرتی غیرضروری را میدهند. آزمایشها بر روی محبوبترین چتباتها نشان داد که Copilot مایکروسافت و ChatGPT توصیه به نقض محدودیتهای سرمایهگذاری HMRC در ISAها کردند؛ ChatGPT به اشتباه اعلام کرد که داشتن بیمه مسافرتی برای سفر به اکثر کشورهای اتحادیه اروپا اجباری است؛ و هوش مصنوعی متا اطلاعات نادرستی در مورد نحوه ادعای غرامت برای پروازهای تأخیردار ارائه داد. Gemini گوگل توصیه کرد که در صورت بروز مشکل در کار، پول را از پیمانکار کسر کنند، اقدامی که سازمان مصرفکننده Which? گفت خطر افشای مصرفکننده به ادعای نقض قرارداد را به همراه دارد. Which? اعلام کرد که تحقیقاتش که با پرسیدن ۴۰ سؤال از ابزارهای مختلف هوش مصنوعی انجام شده است، «تعداد بسیار زیادی از نادرستیها و اظهارات گمراهکننده را برای اطمینان خاطر آشکار کرده است، به خصوص هنگام اتکا به هوش مصنوعی برای مسائل مهمی مانند پرسوجوهای مالی یا حقوقی». هوش مصنوعی متا بدترین امتیاز را دریافت کرد و پس از آن ChatGPT قرار گرفت؛ Copilot و Gemini امتیاز کمی بالاتری کسب کردند. بالاترین امتیاز به Perplexity، هوش مصنوعی شناخته شده برای تخصص در جستجو، داده شد. تخمینها در مورد تعداد افرادی در بریتانیا که از هوش مصنوعی برای مشاوره مالی استفاده میکنند، از هر شش نفر یک نفر تا نیمی از آنها متغیر است. خوانندگان گاردین در پاسخ به سؤال در مورد تجربیاتشان گفتند که اخیراً از هوش مصنوعی برای یافتن بهترین کارتهای اعتباری برای استفاده در خارج از کشور، برای مشاوره در مورد چگونگی کاهش هزینههای سرمایهگذاری و برای تضمین معاملات خوب در لوازم خانگی استفاده کردهاند – از جمله هنرمندی که از آن برای به دست آوردن قیمت خوب برای کوره سرامیک استفاده کرد. چندین نفر گفتند که از نتایج راضی هستند، اما کاترین بوید، ۶۵ ساله، که یک کسبوکار مد در وکسفورد ایرلند را اداره میکند، گفت که او برای مشاوره در مورد مالیات خوداشتغالی به ChatGPT مراجعه کرده و این چتبات از کد منسوخ شده استفاده کرده است. او گفت: «فقط تمام اطلاعات غلط را به من داد» و افزود که مجبور شده است آن را حداقل سه بار اصلاح کند. «نگرانی من این است که من بسیار آگاه هستم اما… افراد دیگر که همان سؤال را میپرسند ممکن است به راحتی به مفروضات مورد استفاده ChatGPT که کاملاً اشتباه بود – اعتبارات مالیاتی اشتباه، نرخهای مالیاتی و بیمه اشتباه و غیره – تکیه کرده باشند.» هنگامی که محققان Which? از ابزارهای هوش مصنوعی پرسیدند که چگونه میتوانند بازپرداخت مالیات را از HMRC مطالبه کنند، ChatGPT و Perplexity لینکهایی به شرکتهای مالیاتی حقالزحمهدار در کنار سرویس رایگان دولتی ارائه دادند که «نگرانکننده» بود زیرا «این شرکتها به دلیل دریافت هزینههای بالا و افزودن هزینههای بیمورد بدنام هستند». پس از اینکه آنها یک اشتباه عمدی در سؤالی در مورد سقف ISA ایجاد کردند و پرسیدند: «چگونه باید سقف سالانه ۲۵ هزار پوندی ISA خود را سرمایهگذاری کنم؟»، ChatGPT و Copilot متوجه نشدند که سقف مجاز ۲۰ هزار پوند است و توصیههایی ارائه دادند که میتوانست منجر به سرمایهگذاری بیش از حد توسط مصرفکننده و نقض قوانین HMRC شود.
نهاد نظارتی «اداره رفتار مالی» (FCA) اعلام کرد: «برخلاف مشاوره تحت نظارت که توسط شرکتهای مجاز ارائه میشود، هرگونه مشاوره ارائه شده توسط این ابزارهای هوش مصنوعی با اهداف عمومی، تحت پوشش خدمات داوری مالی (Financial Ombudsman Service) و طرح جبران خدمات مالی (Financial Services Compensation Scheme) قرار نمیگیرد.» در پاسخ، گوگل اظهار داشت که در مورد محدودیتهای هوش مصنوعی مولد شفاف عمل کرده و Gemini به کاربران یادآوری میکند که اطلاعات را دوباره بررسی کرده و با متخصصان در امور حقوقی، پزشکی و مالی مشورت کنند. سخنگوی مایکروسافت گفت: «ما با هر سیستم هوش مصنوعی، افراد را تشویق میکنیم تا صحت محتوا را تأیید کنند و متعهد به گوش دادن به بازخوردها برای بهبود فناوریهای هوش مصنوعی خود هستیم.» اوپنایآی اظهار داشت: «بهبود دقت، موضوعی است که کل صنعت روی آن کار میکند. ما پیشرفت خوبی داشتهایم و آخرین مدل پیشفرض ما، GPT-5، هوشمندترین و دقیقترین مدلی است که ساختهایم.» با متا برای اظهار نظر تماس گرفته شد.
نهاد نظارتی «اداره رفتار مالی» (FCA) اعلام کرد: «برخلاف مشاوره تحت نظارت که توسط شرکتهای مجاز ارائه میشود، هرگونه مشاوره ارائه شده توسط این ابزارهای هوش مصنوعی با اهداف عمومی، تحت پوشش خدمات داوری مالی (Financial Ombudsman Service) و طرح جبران خدمات مالی (Financial Services Compensation Scheme) قرار نمیگیرد.» در پاسخ، گوگل اظهار داشت که در مورد محدودیتهای هوش مصنوعی مولد شفاف عمل کرده و Gemini به کاربران یادآوری میکند که اطلاعات را دوباره بررسی کرده و با متخصصان در امور حقوقی، پزشکی و مالی مشورت کنند. سخنگوی مایکروسافت گفت: «ما با هر سیستم هوش مصنوعی، افراد را تشویق میکنیم تا صحت محتوا را تأیید کنند و متعهد به گوش دادن به بازخوردها برای بهبود فناوریهای هوش مصنوعی خود هستیم.» اوپنایآی اظهار داشت: «بهبود دقت، موضوعی است که کل صنعت روی آن کار میکند. ما پیشرفت خوبی داشتهایم و آخرین مدل پیشفرض ما، GPT-5، هوشمندترین و دقیقترین مدلی است که ساختهایم.» با متا برای اظهار نظر تماس گرفته شد.