با کارگران هوش مصنوعی آشنا شوید که به دوستان و خانواده خود می‌گویند از هوش مصنوعی دوری کنند

📅 1404/9/1 22:0 | ⏱️ 12 دقیقه مطالعه | مشاهده در منبع اصلی
با کارگران هوش مصنوعی آشنا شوید که به دوستان و خانواده خود می‌گویند از هوش مصنوعی دوری کنند
کریستا پاولوسکی لحظه تعیین‌کننده‌ای را به یاد می‌آورد که دیدگاه او را در مورد اخلاق هوش مصنوعی شکل داد. پاولوسکی به عنوان یک کارگر هوش مصنوعی در Amazon Mechanical Turk – بازاری که به شرکت‌ها اجازه می‌دهد کارگران را برای انجام وظایفی مانند ورود داده یا تطبیق دستورات هوش مصنوعی با خروجی آن استخدام کنند – وقت خود را صرف نظارت و ارزیابی کیفیت متن، تصاویر و ویدئوهای تولید شده توسط هوش مصنوعی و همچنین برخی بررسی‌های واقعیت می‌کند. حدود دو سال پیش، در حالی که در خانه پشت میز ناهارخوری خود کار می‌کرد، شغلی را پذیرفت که در آن توییت‌ها را به عنوان نژادپرستانه یا غیر نژادپرستانه دسته‌بندی می‌کرد. هنگامی که با توییتی با این مضمون روبرو شد: «به آواز خواندن آن کریکت ماه گوش کن»، تقریباً روی دکمه «خیر» کلیک کرد، قبل از اینکه تصمیم بگیرد معنی کلمه «mooncricket» را بررسی کند، که با کمال تعجب، یک ناسزای نژادی علیه سیاه‌پوستان آمریکایی بود. پاولوسکی گفت: «نشستم و به این فکر کردم که چند بار ممکن است همان اشتباه را مرتکب شده باشم و متوجه آن نشده باشم.» مقیاس بالقوه اشتباهات خودش و هزاران کارگر دیگر مانند او، پاولوسکی را دچار اضطراب کرد. چه تعداد دیگر ناخواسته اجازه داده بودند مطالب توهین‌آمیز رد شود؟ یا بدتر از آن، انتخاب کرده بودند که اجازه آن را بدهند؟ پاولوسکی پس از سال‌ها مشاهده عملکرد درونی مدل‌های هوش مصنوعی، تصمیم گرفت دیگر از محصولات هوش مصنوعی مولد به صورت شخصی استفاده نکند و به خانواده‌اش نیز توصیه می‌کند از آن‌ها دوری کنند. پاولوسکی با اشاره به اینکه اجازه نمی‌دهد دختر نوجوانش از ابزارهایی مانند ChatGPT استفاده کند، گفت: «در خانه ما مطلقاً ممنوع است.» و با افرادی که در معاشرت‌ها ملاقات می‌کند، آن‌ها را تشویق می‌کند که در مورد چیزی که در آن بسیار آگاه هستند از هوش مصنوعی سؤال کنند تا بتوانند اشتباهات آن را تشخیص دهند و خودشان بفهمند که این فناوری چقدر قابل خطا است. پاولوسکی گفت که هر بار که فهرستی از وظایف جدید را برای انتخاب در سایت Mechanical Turk می‌بیند، از خود می‌پرسد که آیا راهی وجود دارد که کاری که او انجام می‌دهد بتواند برای آسیب رساندن به مردم استفاده شود – او می‌گوید که در بسیاری از موارد، پاسخ مثبت است. بیانیه‌ای از آمازون حاکی از آن است که کارگران می‌توانند وظایف خود را به اختیار خود انتخاب کنند و قبل از پذیرش، جزئیات وظیفه را بررسی کنند. طبق گفته آمازون، درخواست‌کنندگان مشخصات هر وظیفه را تعیین می‌کنند، مانند زمان اختصاص داده شده، دستمزد و سطوح دستورالعمل. مونتانا مک‌لاخلان، سخنگوی آمازون، گفت: «Amazon Mechanical Turk بازاری است که کسب‌وکارها و محققان، معروف به درخواست‌کنندگان، را با کارگران برای تکمیل وظایف آنلاین، مانند برچسب‌گذاری تصاویر، پاسخ به نظرسنجی‌ها، رونویسی متن یا بررسی خروجی‌های هوش مصنوعی، مرتبط می‌کند.» پاولوسکی تنها نیست.

دوازده ارزیاب هوش مصنوعی، کارگرانی که پاسخ‌های هوش مصنوعی را از نظر دقت و صحت بررسی می‌کنند، به گاردین گفتند که پس از آگاهی از نحوه عملکرد چت‌بات‌ها و مولدهای تصویر و اینکه خروجی آن‌ها چقدر می‌تواند اشتباه باشد، شروع به تشویق دوستان و خانواده خود کرده‌اند تا اصلاً از هوش مصنوعی مولد استفاده نکنند – یا حداقل سعی کنند عزیزان خود را در مورد استفاده محتاطانه از آن آموزش دهند. این مربیان بر روی طیف وسیعی از مدل‌های هوش مصنوعی کار می‌کنند – جمنای گوگل، گرِک ایلان ماسک، مدل‌های محبوب دیگر، و چندین ربات کوچک‌تر یا کمتر شناخته شده. یکی از این کارگران، یک ارزیاب هوش مصنوعی در گوگل که پاسخ‌های تولید شده توسط نمایه‌های هوش مصنوعی جستجوی گوگل را ارزیابی می‌کند، گفت که او سعی می‌کند تا حد امکان از هوش مصنوعی به طور محدود استفاده کند، اگر اصلاً استفاده کند. او که به دلیل ترس از تلافی حرفه‌ای خواستار ناشناس ماندن بود، گفت رویکرد شرکت به پاسخ‌های تولید شده توسط هوش مصنوعی به سوالات مربوط به سلامتی، به ویژه، او را به تأمل واداشت. او گفت که مشاهده کرده است که همکارانش پاسخ‌های تولید شده توسط هوش مصنوعی را در مورد مسائل پزشکی بدون نقد ارزیابی می‌کنند و او نیز علی‌رغم نداشتن آموزش پزشکی، موظف به ارزیابی چنین سوالاتی بوده است. در خانه، او به دختر ۱۰ ساله‌اش استفاده از چت‌بات‌ها را ممنوع کرده است. این ارزیاب گفت: «او ابتدا باید مهارت‌های تفکر انتقادی را بیاموزد، در غیر این صورت قادر نخواهد بود تشخیص دهد که خروجی خوب است یا خیر». گوگل در بیانیه‌ای اعلام کرد: «رتبه‌بندی‌ها تنها یکی از نقاط داده‌های تجمیع شده متعددی هستند که به ما کمک می‌کنند تا عملکرد سیستم‌هایمان را بسنجیم، اما مستقیماً بر الگوریتم‌ها یا مدل‌های ما تأثیر نمی‌گذارند.» «ما همچنین طیف وسیعی از حفاظت‌های قوی را برای نمایش اطلاعات با کیفیت بالا در سراسر محصولات خود داریم.» ناظران هوش مصنوعی هشدار می‌دهند این افراد بخشی از نیروی کار جهانی ده‌ها هزار نفری هستند که به چت‌بات‌ها کمک می‌کنند تا انسانی‌تر به نظر برسند. هنگام بررسی پاسخ‌های هوش مصنوعی، آن‌ها همچنین تمام تلاش خود را می‌کنند تا اطمینان حاصل کنند که یک چت‌بات اطلاعات نادرست یا مضر را منتشر نمی‌کند. با این حال، هنگامی که افرادی که هوش مصنوعی را قابل اعتماد جلوه می‌دهند، کمترین اعتماد را به آن دارند، کارشناسان معتقدند این نشان‌دهنده یک مشکل بسیار بزرگ‌تر است. الکس ماهادوان، مدیر MediaWise در Poynter، یک برنامه سواد رسانه‌ای، گفت: «این نشان می‌دهد که احتمالاً انگیزه‌هایی برای عرضه و مقیاس‌بندی به جای اعتبارسنجی کند و دقیق وجود دارد، و بازخوردهایی که ارزیابان ارائه می‌دهند نادیده گرفته می‌شود.» «بنابراین این بدان معناست که وقتی نسخه نهایی چت‌بات را می‌بینیم، می‌توانیم انتظار همان نوع خطاها را داشته باشیم که آن‌ها تجربه می‌کنند. این برای عموم که به طور فزاینده‌ای برای اخبار و اطلاعات به مدل‌های زبانی بزرگ (LLMs) مراجعه می‌کنند، خبر خوبی نیست.» کارگران هوش مصنوعی گفتند که به دلیل تأکید مداوم بر زمان بازگشت سریع به قیمت کیفیت، به مدل‌هایی که روی آن‌ها کار می‌کنند اعتماد ندارند. بروک هانسن، یک کارگر هوش مصنوعی در Amazon Mechanical Turk، توضیح داد که در حالی که او به هوش مصنوعی مولد به عنوان یک مفهوم بی‌اعتماد نیست، او همچنین به شرکت‌هایی که این ابزارها را توسعه و مستقر می‌کنند، اعتماد ندارد.

برای او، بزرگترین نقطه عطف، درک میزان حمایت اندکی بود که افراد آموزش‌دهنده این سیستم‌ها دریافت می‌کنند. هنسن که از سال ۲۰۱۰ در زمینه داده‌ها فعالیت می‌کند و در آموزش برخی از محبوب‌ترین مدل‌های هوش مصنوعی در سیلیکون‌ولی نقش داشته است، می‌گوید: «انتظار می‌رود ما به بهبود مدل کمک کنیم، اما اغلب دستورالعمل‌های مبهم یا ناقص، آموزش حداقلی و محدودیت‌های زمانی غیرواقعی برای تکمیل وظایف دریافت می‌کنیم.» او می‌افزاید: «اگر کارگران با اطلاعات، منابع و زمان مورد نیاز ما مجهز نباشند، چگونه نتایج می‌توانند ایمن، دقیق یا اخلاقی باشند؟ برای من، این شکاف بین آنچه از ما انتظار می‌رود و آنچه واقعاً برای انجام کار به ما داده می‌شود، نشانه روشنی است که شرکت‌ها سرعت و سود را بر مسئولیت‌پذیری و کیفیت اولویت می‌دهند.» کارشناسان می‌گویند یکی از اشکالات عمده هوش مصنوعی مولد، ارائه اطلاعات نادرست با لحنی مطمئن به جای عدم پاسخگویی در صورت عدم دسترسی به اطلاعات است. ممیزی ۱۰ مدل برتر هوش مصنوعی مولد از جمله ChatGPT، Gemini و هوش مصنوعی متا توسط NewsGuard، سازمان غیرانتفاعی سواد رسانه‌ای، نشان داد که نرخ عدم پاسخگویی چت‌بات‌ها از ۳۱ درصد در اوت ۲۰۲۴ به ۰ درصد در اوت ۲۰۲۵ کاهش یافته است. NewsGuard دریافت که در همین حال، احتمال تکرار اطلاعات نادرست توسط چت‌بات‌ها تقریباً دو برابر شده و از ۱۸ درصد به ۳۵ درصد رسیده است. هیچ یک از شرکت‌ها در آن زمان به درخواست NewsGuard برای اظهار نظر پاسخ ندادند. یکی دیگر از ارزیاب‌های هوش مصنوعی گوگل که به دلیل توافق عدم افشا با شرکت پیمانکار خواستار ناشناس ماندن شد، گفت: «من به هیچ واقعیتی که [ربات] ارائه می‌دهد بدون بررسی خودم اعتماد نمی‌کنم - قابل اعتماد نیست.» او به مردم در مورد استفاده از آن هشدار می‌دهد و نکته ارزیاب دیگری را در مورد سپردن وظایف مربوط به سوالات پزشکی و مسائل اخلاقی حساس به افرادی با دانش سطحی تکرار کرد. «این یک ربات اخلاقی نیست. این فقط یک ربات است.» یکی از مربیان هوش مصنوعی که با Gemini، ChatGPT و Grok کار کرده است و به دلیل امضای توافق‌نامه‌های عدم افشا خواستار ناشناس ماندن شد، می‌گوید: «ما شوخی می‌کنیم که اگر می‌توانستیم کاری کنیم [چت‌بات‌ها] دروغ نگویند، عالی می‌شدند.» «آشغال ورودی، آشغال خروجی» یکی دیگر از ارزیاب‌های هوش مصنوعی که سفر خود را در ارزیابی پاسخ‌ها برای محصولات گوگل در اوایل سال ۲۰۲۴ آغاز کرد، حدود شش ماه پس از شروع کار احساس کرد که نمی‌تواند به هوش مصنوعی اعتماد کند. وظیفه او این بود که مدل را به چالش بکشد - به این معنی که او باید سوالات مختلفی از هوش مصنوعی گوگل بپرسد که محدودیت‌ها یا نقاط ضعف آن را آشکار کند. این کارگر که دارای مدرک تاریخ است، برای انجام این وظیفه سوالات تاریخی از مدل پرسید. این کارگر که به دلیل امضای توافق‌نامه عدم افشا خواستار ناشناس ماندن شد، به یاد می‌آورد: «من از آن در مورد تاریخ مردم فلسطین پرسیدم و هر چقدر هم که سوال را بازنویسی می‌کردم، پاسخی به من نمی‌داد.»

«وقتی از آن درباره تاریخچه اسرائیل پرسیدم، بدون هیچ مشکلی خلاصه‌ای بسیار جامع ارائه داد. ما این موضوع را گزارش کردیم، اما به نظر نمی‌رسید در گوگل کسی اهمیت دهد.» گوگل در پاسخ به پرسش مشخص درباره وضعیتی که این ارزیاب توصیف کرد، بیانیه‌ای صادر نکرد. برای این کارگر گوگل، بزرگترین نگرانی در آموزش هوش مصنوعی، بازخوردی است که ارزیابانی مانند او به مدل‌های هوش مصنوعی می‌دهند. او گفت: «پس از مشاهده اینکه داده‌هایی که برای آموزش مدل وارد می‌شوند چقدر بد هستند، می‌دانستم که به هیچ وجه نمی‌توان آن را به درستی آموزش داد.» او از عبارت «آشغال ورودی، آشغال خروجی» استفاده کرد، اصلی در برنامه‌نویسی کامپیوتر که توضیح می‌دهد اگر داده‌های بد یا ناقص را به یک سیستم فنی وارد کنید، خروجی نیز همان نقص‌ها را خواهد داشت. این ارزیاب از استفاده از هوش مصنوعی مولد اجتناب می‌کند و همچنین «به هر یک از اعضای خانواده و دوستانم توصیه کرده‌ام که تلفن‌های جدیدتر مجهز به هوش مصنوعی را نخرند، در صورت امکان از به‌روزرسانی‌های خودکار که ادغام هوش مصنوعی را اضافه می‌کنند مقاومت کنند و هیچ چیز شخصی را به هوش مصنوعی نگویند.» شکننده، نه آینده‌نگر هر زمان که موضوع هوش مصنوعی در مکالمات اجتماعی مطرح می‌شود، هانسن به مردم یادآوری می‌کند که هوش مصنوعی جادو نیست – او ارتش کارگران نامرئی پشت آن، عدم اطمینان اطلاعات و میزان آسیب‌رسانی زیست‌محیطی آن را توضیح می‌دهد. آدیو دینیکا، که در موسسه تحقیقاتی هوش مصنوعی توزیع‌شده درباره کار پشت هوش مصنوعی تحقیق می‌کند، درباره افرادی که در پشت صحنه کار می‌کنند، می‌گوید: «وقتی می‌بینید این سیستم‌ها چگونه سرهم‌بندی شده‌اند – سوگیری‌ها، ضرب‌الاجل‌های عجولانه، مصالحه‌های مداوم – دیگر هوش مصنوعی را آینده‌نگر نمی‌بینید و آن را شکننده می‌بینید.» «بر اساس تجربه من، همیشه افرادی که هوش مصنوعی را درک نمی‌کنند، مجذوب آن می‌شوند.» کارگرانی که با گاردین صحبت کردند، گفتند که خودشان مسئولیت انتخاب‌های بهتر و ایجاد آگاهی در اطراف خود را بر عهده گرفته‌اند، به ویژه با تأکید بر این ایده که هوش مصنوعی، به گفته هانسن، «تنها به اندازه آنچه در آن وارد می‌شود خوب است، و آنچه در آن وارد می‌شود همیشه بهترین اطلاعات نیست.» او و پاولوسکی در ماه مه در کنفرانس بهاری انجمن هیئت مدیران مدارس میشیگان ارائه‌ای داشتند. در اتاقی پر از اعضای هیئت مدیره مدارس و مدیران از سراسر ایالت، آنها درباره تأثیرات اخلاقی و زیست‌محیطی هوش مصنوعی صحبت کردند و امیدوار بودند که گفتگویی را آغاز کنند. هانسن گفت: «بسیاری از شرکت‌کنندگان از آنچه آموختند شوکه شدند، زیرا بیشتر آنها هرگز درباره نیروی کار انسانی یا ردپای زیست‌محیطی پشت هوش مصنوعی نشنیده بودند.»

برخی از این بینش قدردانی کردند، در حالی که برخی دیگر حالت تدافعی یا ناامیدی به خود گرفتند و ما را به «بدبینی و ناامیدی» در مورد فناوری‌ای که آن را هیجان‌انگیز و سرشار از پتانسیل می‌دانستند، متهم کردند. پاولوسکی اخلاق هوش مصنوعی را با صنعت نساجی مقایسه می‌کند: زمانی که مردم نمی‌دانستند لباس‌های ارزان چگونه ساخته می‌شوند، از یافتن بهترین معامله و صرفه‌جویی چند دلار خوشحال بودند. اما با انتشار داستان‌های کارگاه‌های استثماری، مصرف‌کنندگان حق انتخاب پیدا کردند و می‌دانستند که باید سؤال بپرسند. او معتقد است در مورد هوش مصنوعی نیز همین‌طور است. او گفت: «داده‌های شما از کجا می‌آید؟ آیا این مدل بر اساس نقض حق چاپ ساخته شده است؟ آیا به کارگران برای کارشان به طور منصفانه غرامت پرداخت شده است؟» او افزود: «ما تازه شروع به پرسیدن این سؤالات کرده‌ایم، بنابراین در بیشتر موارد عموم مردم به حقیقت دسترسی ندارند، اما درست مانند صنعت نساجی، اگر به پرسیدن و فشار آوردن ادامه دهیم، تغییر امکان‌پذیر است.»