با کارگران هوش مصنوعی آشنا شوید که به دوستان و خانواده خود میگویند از هوش مصنوعی دوری کنند
کریستا پاولوسکی لحظه تعیینکنندهای را به یاد میآورد که دیدگاه او را در مورد اخلاق هوش مصنوعی شکل داد. پاولوسکی به عنوان یک کارگر هوش مصنوعی در Amazon Mechanical Turk – بازاری که به شرکتها اجازه میدهد کارگران را برای انجام وظایفی مانند ورود داده یا تطبیق دستورات هوش مصنوعی با خروجی آن استخدام کنند – وقت خود را صرف نظارت و ارزیابی کیفیت متن، تصاویر و ویدئوهای تولید شده توسط هوش مصنوعی و همچنین برخی بررسیهای واقعیت میکند. حدود دو سال پیش، در حالی که در خانه پشت میز ناهارخوری خود کار میکرد، شغلی را پذیرفت که در آن توییتها را به عنوان نژادپرستانه یا غیر نژادپرستانه دستهبندی میکرد. هنگامی که با توییتی با این مضمون روبرو شد: «به آواز خواندن آن کریکت ماه گوش کن»، تقریباً روی دکمه «خیر» کلیک کرد، قبل از اینکه تصمیم بگیرد معنی کلمه «mooncricket» را بررسی کند، که با کمال تعجب، یک ناسزای نژادی علیه سیاهپوستان آمریکایی بود. پاولوسکی گفت: «نشستم و به این فکر کردم که چند بار ممکن است همان اشتباه را مرتکب شده باشم و متوجه آن نشده باشم.» مقیاس بالقوه اشتباهات خودش و هزاران کارگر دیگر مانند او، پاولوسکی را دچار اضطراب کرد. چه تعداد دیگر ناخواسته اجازه داده بودند مطالب توهینآمیز رد شود؟ یا بدتر از آن، انتخاب کرده بودند که اجازه آن را بدهند؟ پاولوسکی پس از سالها مشاهده عملکرد درونی مدلهای هوش مصنوعی، تصمیم گرفت دیگر از محصولات هوش مصنوعی مولد به صورت شخصی استفاده نکند و به خانوادهاش نیز توصیه میکند از آنها دوری کنند. پاولوسکی با اشاره به اینکه اجازه نمیدهد دختر نوجوانش از ابزارهایی مانند ChatGPT استفاده کند، گفت: «در خانه ما مطلقاً ممنوع است.» و با افرادی که در معاشرتها ملاقات میکند، آنها را تشویق میکند که در مورد چیزی که در آن بسیار آگاه هستند از هوش مصنوعی سؤال کنند تا بتوانند اشتباهات آن را تشخیص دهند و خودشان بفهمند که این فناوری چقدر قابل خطا است. پاولوسکی گفت که هر بار که فهرستی از وظایف جدید را برای انتخاب در سایت Mechanical Turk میبیند، از خود میپرسد که آیا راهی وجود دارد که کاری که او انجام میدهد بتواند برای آسیب رساندن به مردم استفاده شود – او میگوید که در بسیاری از موارد، پاسخ مثبت است. بیانیهای از آمازون حاکی از آن است که کارگران میتوانند وظایف خود را به اختیار خود انتخاب کنند و قبل از پذیرش، جزئیات وظیفه را بررسی کنند. طبق گفته آمازون، درخواستکنندگان مشخصات هر وظیفه را تعیین میکنند، مانند زمان اختصاص داده شده، دستمزد و سطوح دستورالعمل. مونتانا مکلاخلان، سخنگوی آمازون، گفت: «Amazon Mechanical Turk بازاری است که کسبوکارها و محققان، معروف به درخواستکنندگان، را با کارگران برای تکمیل وظایف آنلاین، مانند برچسبگذاری تصاویر، پاسخ به نظرسنجیها، رونویسی متن یا بررسی خروجیهای هوش مصنوعی، مرتبط میکند.» پاولوسکی تنها نیست.
دوازده ارزیاب هوش مصنوعی، کارگرانی که پاسخهای هوش مصنوعی را از نظر دقت و صحت بررسی میکنند، به گاردین گفتند که پس از آگاهی از نحوه عملکرد چتباتها و مولدهای تصویر و اینکه خروجی آنها چقدر میتواند اشتباه باشد، شروع به تشویق دوستان و خانواده خود کردهاند تا اصلاً از هوش مصنوعی مولد استفاده نکنند – یا حداقل سعی کنند عزیزان خود را در مورد استفاده محتاطانه از آن آموزش دهند. این مربیان بر روی طیف وسیعی از مدلهای هوش مصنوعی کار میکنند – جمنای گوگل، گرِک ایلان ماسک، مدلهای محبوب دیگر، و چندین ربات کوچکتر یا کمتر شناخته شده. یکی از این کارگران، یک ارزیاب هوش مصنوعی در گوگل که پاسخهای تولید شده توسط نمایههای هوش مصنوعی جستجوی گوگل را ارزیابی میکند، گفت که او سعی میکند تا حد امکان از هوش مصنوعی به طور محدود استفاده کند، اگر اصلاً استفاده کند. او که به دلیل ترس از تلافی حرفهای خواستار ناشناس ماندن بود، گفت رویکرد شرکت به پاسخهای تولید شده توسط هوش مصنوعی به سوالات مربوط به سلامتی، به ویژه، او را به تأمل واداشت. او گفت که مشاهده کرده است که همکارانش پاسخهای تولید شده توسط هوش مصنوعی را در مورد مسائل پزشکی بدون نقد ارزیابی میکنند و او نیز علیرغم نداشتن آموزش پزشکی، موظف به ارزیابی چنین سوالاتی بوده است. در خانه، او به دختر ۱۰ سالهاش استفاده از چتباتها را ممنوع کرده است. این ارزیاب گفت: «او ابتدا باید مهارتهای تفکر انتقادی را بیاموزد، در غیر این صورت قادر نخواهد بود تشخیص دهد که خروجی خوب است یا خیر». گوگل در بیانیهای اعلام کرد: «رتبهبندیها تنها یکی از نقاط دادههای تجمیع شده متعددی هستند که به ما کمک میکنند تا عملکرد سیستمهایمان را بسنجیم، اما مستقیماً بر الگوریتمها یا مدلهای ما تأثیر نمیگذارند.» «ما همچنین طیف وسیعی از حفاظتهای قوی را برای نمایش اطلاعات با کیفیت بالا در سراسر محصولات خود داریم.» ناظران هوش مصنوعی هشدار میدهند این افراد بخشی از نیروی کار جهانی دهها هزار نفری هستند که به چتباتها کمک میکنند تا انسانیتر به نظر برسند. هنگام بررسی پاسخهای هوش مصنوعی، آنها همچنین تمام تلاش خود را میکنند تا اطمینان حاصل کنند که یک چتبات اطلاعات نادرست یا مضر را منتشر نمیکند. با این حال، هنگامی که افرادی که هوش مصنوعی را قابل اعتماد جلوه میدهند، کمترین اعتماد را به آن دارند، کارشناسان معتقدند این نشاندهنده یک مشکل بسیار بزرگتر است. الکس ماهادوان، مدیر MediaWise در Poynter، یک برنامه سواد رسانهای، گفت: «این نشان میدهد که احتمالاً انگیزههایی برای عرضه و مقیاسبندی به جای اعتبارسنجی کند و دقیق وجود دارد، و بازخوردهایی که ارزیابان ارائه میدهند نادیده گرفته میشود.» «بنابراین این بدان معناست که وقتی نسخه نهایی چتبات را میبینیم، میتوانیم انتظار همان نوع خطاها را داشته باشیم که آنها تجربه میکنند. این برای عموم که به طور فزایندهای برای اخبار و اطلاعات به مدلهای زبانی بزرگ (LLMs) مراجعه میکنند، خبر خوبی نیست.» کارگران هوش مصنوعی گفتند که به دلیل تأکید مداوم بر زمان بازگشت سریع به قیمت کیفیت، به مدلهایی که روی آنها کار میکنند اعتماد ندارند. بروک هانسن، یک کارگر هوش مصنوعی در Amazon Mechanical Turk، توضیح داد که در حالی که او به هوش مصنوعی مولد به عنوان یک مفهوم بیاعتماد نیست، او همچنین به شرکتهایی که این ابزارها را توسعه و مستقر میکنند، اعتماد ندارد.
برای او، بزرگترین نقطه عطف، درک میزان حمایت اندکی بود که افراد آموزشدهنده این سیستمها دریافت میکنند. هنسن که از سال ۲۰۱۰ در زمینه دادهها فعالیت میکند و در آموزش برخی از محبوبترین مدلهای هوش مصنوعی در سیلیکونولی نقش داشته است، میگوید: «انتظار میرود ما به بهبود مدل کمک کنیم، اما اغلب دستورالعملهای مبهم یا ناقص، آموزش حداقلی و محدودیتهای زمانی غیرواقعی برای تکمیل وظایف دریافت میکنیم.» او میافزاید: «اگر کارگران با اطلاعات، منابع و زمان مورد نیاز ما مجهز نباشند، چگونه نتایج میتوانند ایمن، دقیق یا اخلاقی باشند؟ برای من، این شکاف بین آنچه از ما انتظار میرود و آنچه واقعاً برای انجام کار به ما داده میشود، نشانه روشنی است که شرکتها سرعت و سود را بر مسئولیتپذیری و کیفیت اولویت میدهند.» کارشناسان میگویند یکی از اشکالات عمده هوش مصنوعی مولد، ارائه اطلاعات نادرست با لحنی مطمئن به جای عدم پاسخگویی در صورت عدم دسترسی به اطلاعات است. ممیزی ۱۰ مدل برتر هوش مصنوعی مولد از جمله ChatGPT، Gemini و هوش مصنوعی متا توسط NewsGuard، سازمان غیرانتفاعی سواد رسانهای، نشان داد که نرخ عدم پاسخگویی چتباتها از ۳۱ درصد در اوت ۲۰۲۴ به ۰ درصد در اوت ۲۰۲۵ کاهش یافته است. NewsGuard دریافت که در همین حال، احتمال تکرار اطلاعات نادرست توسط چتباتها تقریباً دو برابر شده و از ۱۸ درصد به ۳۵ درصد رسیده است. هیچ یک از شرکتها در آن زمان به درخواست NewsGuard برای اظهار نظر پاسخ ندادند. یکی دیگر از ارزیابهای هوش مصنوعی گوگل که به دلیل توافق عدم افشا با شرکت پیمانکار خواستار ناشناس ماندن شد، گفت: «من به هیچ واقعیتی که [ربات] ارائه میدهد بدون بررسی خودم اعتماد نمیکنم - قابل اعتماد نیست.» او به مردم در مورد استفاده از آن هشدار میدهد و نکته ارزیاب دیگری را در مورد سپردن وظایف مربوط به سوالات پزشکی و مسائل اخلاقی حساس به افرادی با دانش سطحی تکرار کرد. «این یک ربات اخلاقی نیست. این فقط یک ربات است.» یکی از مربیان هوش مصنوعی که با Gemini، ChatGPT و Grok کار کرده است و به دلیل امضای توافقنامههای عدم افشا خواستار ناشناس ماندن شد، میگوید: «ما شوخی میکنیم که اگر میتوانستیم کاری کنیم [چتباتها] دروغ نگویند، عالی میشدند.» «آشغال ورودی، آشغال خروجی» یکی دیگر از ارزیابهای هوش مصنوعی که سفر خود را در ارزیابی پاسخها برای محصولات گوگل در اوایل سال ۲۰۲۴ آغاز کرد، حدود شش ماه پس از شروع کار احساس کرد که نمیتواند به هوش مصنوعی اعتماد کند. وظیفه او این بود که مدل را به چالش بکشد - به این معنی که او باید سوالات مختلفی از هوش مصنوعی گوگل بپرسد که محدودیتها یا نقاط ضعف آن را آشکار کند. این کارگر که دارای مدرک تاریخ است، برای انجام این وظیفه سوالات تاریخی از مدل پرسید. این کارگر که به دلیل امضای توافقنامه عدم افشا خواستار ناشناس ماندن شد، به یاد میآورد: «من از آن در مورد تاریخ مردم فلسطین پرسیدم و هر چقدر هم که سوال را بازنویسی میکردم، پاسخی به من نمیداد.»
«وقتی از آن درباره تاریخچه اسرائیل پرسیدم، بدون هیچ مشکلی خلاصهای بسیار جامع ارائه داد. ما این موضوع را گزارش کردیم، اما به نظر نمیرسید در گوگل کسی اهمیت دهد.» گوگل در پاسخ به پرسش مشخص درباره وضعیتی که این ارزیاب توصیف کرد، بیانیهای صادر نکرد. برای این کارگر گوگل، بزرگترین نگرانی در آموزش هوش مصنوعی، بازخوردی است که ارزیابانی مانند او به مدلهای هوش مصنوعی میدهند. او گفت: «پس از مشاهده اینکه دادههایی که برای آموزش مدل وارد میشوند چقدر بد هستند، میدانستم که به هیچ وجه نمیتوان آن را به درستی آموزش داد.» او از عبارت «آشغال ورودی، آشغال خروجی» استفاده کرد، اصلی در برنامهنویسی کامپیوتر که توضیح میدهد اگر دادههای بد یا ناقص را به یک سیستم فنی وارد کنید، خروجی نیز همان نقصها را خواهد داشت. این ارزیاب از استفاده از هوش مصنوعی مولد اجتناب میکند و همچنین «به هر یک از اعضای خانواده و دوستانم توصیه کردهام که تلفنهای جدیدتر مجهز به هوش مصنوعی را نخرند، در صورت امکان از بهروزرسانیهای خودکار که ادغام هوش مصنوعی را اضافه میکنند مقاومت کنند و هیچ چیز شخصی را به هوش مصنوعی نگویند.» شکننده، نه آیندهنگر هر زمان که موضوع هوش مصنوعی در مکالمات اجتماعی مطرح میشود، هانسن به مردم یادآوری میکند که هوش مصنوعی جادو نیست – او ارتش کارگران نامرئی پشت آن، عدم اطمینان اطلاعات و میزان آسیبرسانی زیستمحیطی آن را توضیح میدهد. آدیو دینیکا، که در موسسه تحقیقاتی هوش مصنوعی توزیعشده درباره کار پشت هوش مصنوعی تحقیق میکند، درباره افرادی که در پشت صحنه کار میکنند، میگوید: «وقتی میبینید این سیستمها چگونه سرهمبندی شدهاند – سوگیریها، ضربالاجلهای عجولانه، مصالحههای مداوم – دیگر هوش مصنوعی را آیندهنگر نمیبینید و آن را شکننده میبینید.» «بر اساس تجربه من، همیشه افرادی که هوش مصنوعی را درک نمیکنند، مجذوب آن میشوند.» کارگرانی که با گاردین صحبت کردند، گفتند که خودشان مسئولیت انتخابهای بهتر و ایجاد آگاهی در اطراف خود را بر عهده گرفتهاند، به ویژه با تأکید بر این ایده که هوش مصنوعی، به گفته هانسن، «تنها به اندازه آنچه در آن وارد میشود خوب است، و آنچه در آن وارد میشود همیشه بهترین اطلاعات نیست.» او و پاولوسکی در ماه مه در کنفرانس بهاری انجمن هیئت مدیران مدارس میشیگان ارائهای داشتند. در اتاقی پر از اعضای هیئت مدیره مدارس و مدیران از سراسر ایالت، آنها درباره تأثیرات اخلاقی و زیستمحیطی هوش مصنوعی صحبت کردند و امیدوار بودند که گفتگویی را آغاز کنند. هانسن گفت: «بسیاری از شرکتکنندگان از آنچه آموختند شوکه شدند، زیرا بیشتر آنها هرگز درباره نیروی کار انسانی یا ردپای زیستمحیطی پشت هوش مصنوعی نشنیده بودند.»
برخی از این بینش قدردانی کردند، در حالی که برخی دیگر حالت تدافعی یا ناامیدی به خود گرفتند و ما را به «بدبینی و ناامیدی» در مورد فناوریای که آن را هیجانانگیز و سرشار از پتانسیل میدانستند، متهم کردند. پاولوسکی اخلاق هوش مصنوعی را با صنعت نساجی مقایسه میکند: زمانی که مردم نمیدانستند لباسهای ارزان چگونه ساخته میشوند، از یافتن بهترین معامله و صرفهجویی چند دلار خوشحال بودند. اما با انتشار داستانهای کارگاههای استثماری، مصرفکنندگان حق انتخاب پیدا کردند و میدانستند که باید سؤال بپرسند. او معتقد است در مورد هوش مصنوعی نیز همینطور است. او گفت: «دادههای شما از کجا میآید؟ آیا این مدل بر اساس نقض حق چاپ ساخته شده است؟ آیا به کارگران برای کارشان به طور منصفانه غرامت پرداخت شده است؟» او افزود: «ما تازه شروع به پرسیدن این سؤالات کردهایم، بنابراین در بیشتر موارد عموم مردم به حقیقت دسترسی ندارند، اما درست مانند صنعت نساجی، اگر به پرسیدن و فشار آوردن ادامه دهیم، تغییر امکانپذیر است.»
دوازده ارزیاب هوش مصنوعی، کارگرانی که پاسخهای هوش مصنوعی را از نظر دقت و صحت بررسی میکنند، به گاردین گفتند که پس از آگاهی از نحوه عملکرد چتباتها و مولدهای تصویر و اینکه خروجی آنها چقدر میتواند اشتباه باشد، شروع به تشویق دوستان و خانواده خود کردهاند تا اصلاً از هوش مصنوعی مولد استفاده نکنند – یا حداقل سعی کنند عزیزان خود را در مورد استفاده محتاطانه از آن آموزش دهند. این مربیان بر روی طیف وسیعی از مدلهای هوش مصنوعی کار میکنند – جمنای گوگل، گرِک ایلان ماسک، مدلهای محبوب دیگر، و چندین ربات کوچکتر یا کمتر شناخته شده. یکی از این کارگران، یک ارزیاب هوش مصنوعی در گوگل که پاسخهای تولید شده توسط نمایههای هوش مصنوعی جستجوی گوگل را ارزیابی میکند، گفت که او سعی میکند تا حد امکان از هوش مصنوعی به طور محدود استفاده کند، اگر اصلاً استفاده کند. او که به دلیل ترس از تلافی حرفهای خواستار ناشناس ماندن بود، گفت رویکرد شرکت به پاسخهای تولید شده توسط هوش مصنوعی به سوالات مربوط به سلامتی، به ویژه، او را به تأمل واداشت. او گفت که مشاهده کرده است که همکارانش پاسخهای تولید شده توسط هوش مصنوعی را در مورد مسائل پزشکی بدون نقد ارزیابی میکنند و او نیز علیرغم نداشتن آموزش پزشکی، موظف به ارزیابی چنین سوالاتی بوده است. در خانه، او به دختر ۱۰ سالهاش استفاده از چتباتها را ممنوع کرده است. این ارزیاب گفت: «او ابتدا باید مهارتهای تفکر انتقادی را بیاموزد، در غیر این صورت قادر نخواهد بود تشخیص دهد که خروجی خوب است یا خیر». گوگل در بیانیهای اعلام کرد: «رتبهبندیها تنها یکی از نقاط دادههای تجمیع شده متعددی هستند که به ما کمک میکنند تا عملکرد سیستمهایمان را بسنجیم، اما مستقیماً بر الگوریتمها یا مدلهای ما تأثیر نمیگذارند.» «ما همچنین طیف وسیعی از حفاظتهای قوی را برای نمایش اطلاعات با کیفیت بالا در سراسر محصولات خود داریم.» ناظران هوش مصنوعی هشدار میدهند این افراد بخشی از نیروی کار جهانی دهها هزار نفری هستند که به چتباتها کمک میکنند تا انسانیتر به نظر برسند. هنگام بررسی پاسخهای هوش مصنوعی، آنها همچنین تمام تلاش خود را میکنند تا اطمینان حاصل کنند که یک چتبات اطلاعات نادرست یا مضر را منتشر نمیکند. با این حال، هنگامی که افرادی که هوش مصنوعی را قابل اعتماد جلوه میدهند، کمترین اعتماد را به آن دارند، کارشناسان معتقدند این نشاندهنده یک مشکل بسیار بزرگتر است. الکس ماهادوان، مدیر MediaWise در Poynter، یک برنامه سواد رسانهای، گفت: «این نشان میدهد که احتمالاً انگیزههایی برای عرضه و مقیاسبندی به جای اعتبارسنجی کند و دقیق وجود دارد، و بازخوردهایی که ارزیابان ارائه میدهند نادیده گرفته میشود.» «بنابراین این بدان معناست که وقتی نسخه نهایی چتبات را میبینیم، میتوانیم انتظار همان نوع خطاها را داشته باشیم که آنها تجربه میکنند. این برای عموم که به طور فزایندهای برای اخبار و اطلاعات به مدلهای زبانی بزرگ (LLMs) مراجعه میکنند، خبر خوبی نیست.» کارگران هوش مصنوعی گفتند که به دلیل تأکید مداوم بر زمان بازگشت سریع به قیمت کیفیت، به مدلهایی که روی آنها کار میکنند اعتماد ندارند. بروک هانسن، یک کارگر هوش مصنوعی در Amazon Mechanical Turk، توضیح داد که در حالی که او به هوش مصنوعی مولد به عنوان یک مفهوم بیاعتماد نیست، او همچنین به شرکتهایی که این ابزارها را توسعه و مستقر میکنند، اعتماد ندارد.
برای او، بزرگترین نقطه عطف، درک میزان حمایت اندکی بود که افراد آموزشدهنده این سیستمها دریافت میکنند. هنسن که از سال ۲۰۱۰ در زمینه دادهها فعالیت میکند و در آموزش برخی از محبوبترین مدلهای هوش مصنوعی در سیلیکونولی نقش داشته است، میگوید: «انتظار میرود ما به بهبود مدل کمک کنیم، اما اغلب دستورالعملهای مبهم یا ناقص، آموزش حداقلی و محدودیتهای زمانی غیرواقعی برای تکمیل وظایف دریافت میکنیم.» او میافزاید: «اگر کارگران با اطلاعات، منابع و زمان مورد نیاز ما مجهز نباشند، چگونه نتایج میتوانند ایمن، دقیق یا اخلاقی باشند؟ برای من، این شکاف بین آنچه از ما انتظار میرود و آنچه واقعاً برای انجام کار به ما داده میشود، نشانه روشنی است که شرکتها سرعت و سود را بر مسئولیتپذیری و کیفیت اولویت میدهند.» کارشناسان میگویند یکی از اشکالات عمده هوش مصنوعی مولد، ارائه اطلاعات نادرست با لحنی مطمئن به جای عدم پاسخگویی در صورت عدم دسترسی به اطلاعات است. ممیزی ۱۰ مدل برتر هوش مصنوعی مولد از جمله ChatGPT، Gemini و هوش مصنوعی متا توسط NewsGuard، سازمان غیرانتفاعی سواد رسانهای، نشان داد که نرخ عدم پاسخگویی چتباتها از ۳۱ درصد در اوت ۲۰۲۴ به ۰ درصد در اوت ۲۰۲۵ کاهش یافته است. NewsGuard دریافت که در همین حال، احتمال تکرار اطلاعات نادرست توسط چتباتها تقریباً دو برابر شده و از ۱۸ درصد به ۳۵ درصد رسیده است. هیچ یک از شرکتها در آن زمان به درخواست NewsGuard برای اظهار نظر پاسخ ندادند. یکی دیگر از ارزیابهای هوش مصنوعی گوگل که به دلیل توافق عدم افشا با شرکت پیمانکار خواستار ناشناس ماندن شد، گفت: «من به هیچ واقعیتی که [ربات] ارائه میدهد بدون بررسی خودم اعتماد نمیکنم - قابل اعتماد نیست.» او به مردم در مورد استفاده از آن هشدار میدهد و نکته ارزیاب دیگری را در مورد سپردن وظایف مربوط به سوالات پزشکی و مسائل اخلاقی حساس به افرادی با دانش سطحی تکرار کرد. «این یک ربات اخلاقی نیست. این فقط یک ربات است.» یکی از مربیان هوش مصنوعی که با Gemini، ChatGPT و Grok کار کرده است و به دلیل امضای توافقنامههای عدم افشا خواستار ناشناس ماندن شد، میگوید: «ما شوخی میکنیم که اگر میتوانستیم کاری کنیم [چتباتها] دروغ نگویند، عالی میشدند.» «آشغال ورودی، آشغال خروجی» یکی دیگر از ارزیابهای هوش مصنوعی که سفر خود را در ارزیابی پاسخها برای محصولات گوگل در اوایل سال ۲۰۲۴ آغاز کرد، حدود شش ماه پس از شروع کار احساس کرد که نمیتواند به هوش مصنوعی اعتماد کند. وظیفه او این بود که مدل را به چالش بکشد - به این معنی که او باید سوالات مختلفی از هوش مصنوعی گوگل بپرسد که محدودیتها یا نقاط ضعف آن را آشکار کند. این کارگر که دارای مدرک تاریخ است، برای انجام این وظیفه سوالات تاریخی از مدل پرسید. این کارگر که به دلیل امضای توافقنامه عدم افشا خواستار ناشناس ماندن شد، به یاد میآورد: «من از آن در مورد تاریخ مردم فلسطین پرسیدم و هر چقدر هم که سوال را بازنویسی میکردم، پاسخی به من نمیداد.»
«وقتی از آن درباره تاریخچه اسرائیل پرسیدم، بدون هیچ مشکلی خلاصهای بسیار جامع ارائه داد. ما این موضوع را گزارش کردیم، اما به نظر نمیرسید در گوگل کسی اهمیت دهد.» گوگل در پاسخ به پرسش مشخص درباره وضعیتی که این ارزیاب توصیف کرد، بیانیهای صادر نکرد. برای این کارگر گوگل، بزرگترین نگرانی در آموزش هوش مصنوعی، بازخوردی است که ارزیابانی مانند او به مدلهای هوش مصنوعی میدهند. او گفت: «پس از مشاهده اینکه دادههایی که برای آموزش مدل وارد میشوند چقدر بد هستند، میدانستم که به هیچ وجه نمیتوان آن را به درستی آموزش داد.» او از عبارت «آشغال ورودی، آشغال خروجی» استفاده کرد، اصلی در برنامهنویسی کامپیوتر که توضیح میدهد اگر دادههای بد یا ناقص را به یک سیستم فنی وارد کنید، خروجی نیز همان نقصها را خواهد داشت. این ارزیاب از استفاده از هوش مصنوعی مولد اجتناب میکند و همچنین «به هر یک از اعضای خانواده و دوستانم توصیه کردهام که تلفنهای جدیدتر مجهز به هوش مصنوعی را نخرند، در صورت امکان از بهروزرسانیهای خودکار که ادغام هوش مصنوعی را اضافه میکنند مقاومت کنند و هیچ چیز شخصی را به هوش مصنوعی نگویند.» شکننده، نه آیندهنگر هر زمان که موضوع هوش مصنوعی در مکالمات اجتماعی مطرح میشود، هانسن به مردم یادآوری میکند که هوش مصنوعی جادو نیست – او ارتش کارگران نامرئی پشت آن، عدم اطمینان اطلاعات و میزان آسیبرسانی زیستمحیطی آن را توضیح میدهد. آدیو دینیکا، که در موسسه تحقیقاتی هوش مصنوعی توزیعشده درباره کار پشت هوش مصنوعی تحقیق میکند، درباره افرادی که در پشت صحنه کار میکنند، میگوید: «وقتی میبینید این سیستمها چگونه سرهمبندی شدهاند – سوگیریها، ضربالاجلهای عجولانه، مصالحههای مداوم – دیگر هوش مصنوعی را آیندهنگر نمیبینید و آن را شکننده میبینید.» «بر اساس تجربه من، همیشه افرادی که هوش مصنوعی را درک نمیکنند، مجذوب آن میشوند.» کارگرانی که با گاردین صحبت کردند، گفتند که خودشان مسئولیت انتخابهای بهتر و ایجاد آگاهی در اطراف خود را بر عهده گرفتهاند، به ویژه با تأکید بر این ایده که هوش مصنوعی، به گفته هانسن، «تنها به اندازه آنچه در آن وارد میشود خوب است، و آنچه در آن وارد میشود همیشه بهترین اطلاعات نیست.» او و پاولوسکی در ماه مه در کنفرانس بهاری انجمن هیئت مدیران مدارس میشیگان ارائهای داشتند. در اتاقی پر از اعضای هیئت مدیره مدارس و مدیران از سراسر ایالت، آنها درباره تأثیرات اخلاقی و زیستمحیطی هوش مصنوعی صحبت کردند و امیدوار بودند که گفتگویی را آغاز کنند. هانسن گفت: «بسیاری از شرکتکنندگان از آنچه آموختند شوکه شدند، زیرا بیشتر آنها هرگز درباره نیروی کار انسانی یا ردپای زیستمحیطی پشت هوش مصنوعی نشنیده بودند.»
برخی از این بینش قدردانی کردند، در حالی که برخی دیگر حالت تدافعی یا ناامیدی به خود گرفتند و ما را به «بدبینی و ناامیدی» در مورد فناوریای که آن را هیجانانگیز و سرشار از پتانسیل میدانستند، متهم کردند. پاولوسکی اخلاق هوش مصنوعی را با صنعت نساجی مقایسه میکند: زمانی که مردم نمیدانستند لباسهای ارزان چگونه ساخته میشوند، از یافتن بهترین معامله و صرفهجویی چند دلار خوشحال بودند. اما با انتشار داستانهای کارگاههای استثماری، مصرفکنندگان حق انتخاب پیدا کردند و میدانستند که باید سؤال بپرسند. او معتقد است در مورد هوش مصنوعی نیز همینطور است. او گفت: «دادههای شما از کجا میآید؟ آیا این مدل بر اساس نقض حق چاپ ساخته شده است؟ آیا به کارگران برای کارشان به طور منصفانه غرامت پرداخت شده است؟» او افزود: «ما تازه شروع به پرسیدن این سؤالات کردهایم، بنابراین در بیشتر موارد عموم مردم به حقیقت دسترسی ندارند، اما درست مانند صنعت نساجی، اگر به پرسیدن و فشار آوردن ادامه دهیم، تغییر امکانپذیر است.»