افراط‌گرایان از شبیه‌سازی صدای هوش مصنوعی برای تقویت تبلیغات خود استفاده می‌کنند. کارشناسان می‌گویند این امر به رشد آن‌ها کمک می‌کند.

📅 1404/9/30 21:0 | ⏱️ 6 دقیقه مطالعه | مشاهده در منبع اصلی
افراط‌گرایان از شبیه‌سازی صدای هوش مصنوعی برای تقویت تبلیغات خود استفاده می‌کنند. کارشناسان می‌گویند این امر به رشد آن‌ها کمک می‌کند.
در حالی که رونق هوش مصنوعی بخش‌هایی از صنعت موسیقی را دگرگون کرده است، ربات‌های تولیدکننده صدا به گوشه دیگری از اینترنت نیز سود می‌رسانند: جنبش‌های افراطی که از آن‌ها برای بازسازی صداها و سخنرانی‌های شخصیت‌های برجسته در محیط خود استفاده می‌کنند و کارشناسان می‌گویند این امر به رشد آن‌ها کمک می‌کند. لوکاس وبر، تحلیلگر ارشد اطلاعات تهدید در Tech Against Terrorism و پژوهشگر در مرکز سوفان، می‌گوید: «استفاده از ترجمه مبتنی بر هوش مصنوعی توسط تروریست‌ها و افراط‌گرایان، تحولی قابل توجه در استراتژی‌های تبلیغات دیجیتال محسوب می‌شود.» وبر در زمینه نظارت بر ابزارهای آنلاین گروه‌های تروریستی و افراطی در سراسر جهان تخصص دارد. او می‌گوید: «روش‌های قبلی به مترجمان انسانی یا ترجمه ماشینی ابتدایی متکی بودند که اغلب با وفاداری زبانی و ظرافت سبکی محدود می‌شدند. اکنون، با ظهور ابزارهای پیشرفته هوش مصنوعی مولد، این گروه‌ها قادر به تولید ترجمه‌های بی‌نقص و از نظر مفهومی دقیق هستند که لحن، احساسات و شدت ایدئولوژیک را در چندین زبان حفظ می‌کند.» در جناح راست افراطی نئونازی، استفاده از نرم‌افزارهای شبیه‌سازی صدای هوش مصنوعی به ویژه رایج شده است و چندین نسخه انگلیسی‌زبان از سخنرانی‌های آدولف هیتلر در پلتفرم‌هایی مانند X، اینستاگرام، تیک‌تاک و سایر اپلیکیشن‌ها ده‌ها میلیون بار پخش شده‌اند. طبق یک پست تحقیقاتی اخیر از شبکه جهانی افراط‌گرایی و فناوری (GNet)، تولیدکنندگان محتوای افراطی به سرویس‌های شبیه‌سازی صدا، به ویژه ElevenLabs، روی آورده‌اند و سخنرانی‌های آرشیوی دوران رایش سوم را به آن‌ها می‌دهند که سپس به تقلید از صدای هیتلر به زبان انگلیسی پردازش می‌شوند. شتاب‌دهندگان نئونازی، از جمله کسانی که اقدامات تروریستی علیه دولت‌های غربی را برای تحریک فروپاشی اجتماعی برنامه‌ریزی می‌کنند، نیز برای انتشار نسخه‌های به‌روزتر پیام‌های خشونت‌آمیز خود به این ابزارها روی آورده‌اند. به عنوان مثال، «Siege»، یک کتابچه راهنمای شورش که توسط جیمز میسون، نئونازی آمریکایی و تروریست ممنوع شده، نوشته شده و به کتاب مقدس سازمان‌هایی مانند The Base و لشکر اتم‌وافن که اکنون منحل شده، تبدیل شده بود، در اواخر نوامبر به صورت کتاب صوتی درآمد. یک چهره برجسته نئونازی با حضور پررنگ در X و تلگرام که با کمک ابزارهای هوش مصنوعی این کتاب صوتی را تدوین کرده، می‌گوید: «در چند ماه گذشته، من در ساخت کتاب صوتی Siege اثر جیمز میسون مشارکت داشته‌ام. با استفاده از یک مدل صدای سفارشی میسون، من هر خبرنامه و بیشتر بریده‌های روزنامه پیوست را همانند خبرنامه‌های منتشر شده اصلی بازسازی کردم.» این چهره برجسته، قدرت نوشته‌های میسون از «آمریکای پیش از اینترنت» را ستود و آن را به صدایی مدرن تبدیل کرد.

اما شنیدن دقت شگفت‌انگیز پیش‌بینی‌های انجام شده تا اوایل دهه هشتاد، نقطه‌ی عطفی در مسیر محسوب می‌شود و دیدگاه من را نسبت به هدف مشترکمان در سطحی بنیادین تغییر داد. در اوج فعالیت خود در سال ۲۰۲۰، "بیس" (The Base) باشگاه کتابی را برای بررسی کتاب "محاصره" (Siege) برگزار کرد که تأثیر ابزاری قابل توجهی بر چندین عضو داشت که مزایای آن را در جنگی فرضی علیه دولت ایالات متحده مورد بحث قرار دادند. تحقیقات ضدتروریسم سراسری اف‌بی‌آی در نهایت بیش از دوازده نفر از اعضای آن را در همان سال به اتهامات مختلف مرتبط با تروریسم دستگیر کرد. جاشوا فیشر-بیرچ، تحلیلگر تروریسم در پروژه ضد افراط‌گرایی، گفت: "سازنده کتاب صوتی قبلاً محتوای مشابهی با هوش مصنوعی منتشر کرده است؛ با این حال، کتاب "محاصره" سابقه بدنام‌تری دارد، به دلیل وضعیت شبه‌فرقه‌ای آن در میان برخی از راست‌گرایان افراطی آنلاین، ترویج خشونت توسط عاملان انفرادی، و اجباری بودن مطالعه آن توسط چندین گروه نئونازی که آشکارا از تروریسم حمایت می‌کنند و اعضایشان مرتکب اعمال مجرمانه خشونت‌آمیز شده‌اند." وببر می‌گوید که رسانه‌های طرفدار داعش در شبکه‌های رمزگذاری شده در حال حاضر به طور فعال "از هوش مصنوعی برای ایجاد نسخه‌های تبدیل متن به گفتار از محتوای ایدئولوژیک از نشریات رسمی استفاده می‌کنند" تا با تبدیل "تبلیغات مبتنی بر متن به روایت‌های چندرسانه‌ای جذاب"، گسترش پیام خود را تسریع کنند. گروه‌های تروریستی جهادی در ترجمه آموزه‌های افراطی از عربی به محتوای چندزبانه قابل هضم، از هوش مصنوعی بهره برده‌اند. در گذشته، انور العولقی، امام آمریکایی که به عضو القاعده تبدیل شد، شخصاً مجبور بود سخنرانی‌های انگلیسی را برای تبلیغات استخدامی در جهان انگلیسی‌زبان صداگذاری کند. سیا و اف‌بی‌آی بارها تأثیر صدای العولقی را به عنوان عامل کلیدی در گسترش پیام القاعده ذکر کرده‌اند. در راکت‌چت (Rocket.Chat) - پلتفرم ارتباطی مورد علاقه داعش که برای ارتباط با پیروان و نیروهای جدید خود از آن استفاده می‌کند - یکی از کاربران در ماه اکتبر کلیپی ویدیویی با گرافیک‌های چشم‌نواز و زیرنویس ژاپنی منتشر کرد و به دشواری‌های انجام این کار بدون ظهور هوش مصنوعی اشاره کرد. کاربر طرفدار داعش گفت: "زبان ژاپنی، زبانی بسیار دشوار برای ترجمه از حالت اصلی به انگلیسی با حفظ بلاغت آن خواهد بود." "باید دانست که من برای هیچ رسانه مرتبطی از هوش مصنوعی استفاده نمی‌کنم، به جز در مواردی استثنایی مربوط به صدا." تاکنون، نه تنها داعش، بلکه گروه‌هایی در سراسر طیف ایدئولوژیک، از برنامه‌های رایگان هوش مصنوعی، به ویژه چت‌بات OpenAI، ChatGPT، برای تقویت فعالیت‌های کلی خود استفاده کرده‌اند. "بیس" و گروه‌های مرتبط از آن برای ایجاد تصاویر استفاده کرده‌اند و همچنین از سال ۲۰۲۳ به بعد، استفاده از این ابزارها را برای ساده‌سازی برنامه‌ریزی و تحقیق تأیید کرده‌اند.

مقامات ضدتروریسم همواره اینترنت و پیشرفت‌های فناوری را در تلاش برای همگام شدن با گروه‌های تروریستی که از آن‌ها سوءاستفاده می‌کنند، یک بازی مداومِ "رسیدن به دنبال" دانسته‌اند. در حال حاضر، القاعده، داعش و سایر افراط‌گرایان از فناوری‌های نوظهوری مانند ارزهای دیجیتال برای جمع‌آوری کمک‌های مالی ناشناس و اشتراک‌گذاری فایل‌های مربوط به سلاح‌های چاپ سه‌بعدی بهره برده‌اند.