شرکت‌های فناوری و نهادهای ایمنی کودکان بریتانیا توانایی ابزارهای هوش مصنوعی در تولید تصاویر سوءاستفاده را آزمایش می‌کنند

📅 1404/8/21 8:1 | ⏱️ 4 دقیقه مطالعه | مشاهده در منبع اصلی
شرکت‌های فناوری و نهادهای ایمنی کودکان بریتانیا توانایی ابزارهای هوش مصنوعی در تولید تصاویر سوءاستفاده را آزمایش می‌کنند
شرکت‌های فناوری و سازمان‌های حفاظت از کودکان، طبق قانون جدید بریتانیا، این اختیار را خواهند داشت تا بررسی کنند آیا ابزارهای هوش مصنوعی قادر به تولید تصاویر سوءاستفاده از کودکان هستند یا خیر. این اعلامیه در حالی منتشر شد که یک نهاد ناظر ایمنی فاش کرد که گزارش‌های مربوط به مواد سوءاستفاده جنسی از کودکان تولید شده توسط هوش مصنوعی (CSAM) در سال گذشته بیش از دو برابر شده و از ۱۹۹ مورد در سال ۲۰۲۴ به ۴۲۶ مورد در سال ۲۰۲۵ رسیده است.

بر اساس این تغییر، دولت به شرکت‌های مشخص هوش مصنوعی و سازمان‌های ایمنی کودکان اجازه خواهد داد تا مدل‌های هوش مصنوعی – فناوری زیربنایی چت‌بات‌هایی مانند ChatGPT و تولیدکنندگان تصویر مانند Veo 3 گوگل – را بررسی کرده و اطمینان حاصل کنند که دارای حفاظ‌هایی برای جلوگیری از ایجاد تصاویر سوءاستفاده جنسی از کودکان هستند. کانشک نارایان، وزیر هوش مصنوعی و ایمنی آنلاین، گفت که این اقدام «در نهایت به معنای توقف سوءاستفاده قبل از وقوع آن است» و افزود: «کارشناسان، تحت شرایط سختگیرانه، اکنون می‌توانند ریسک را در مدل‌های هوش مصنوعی زودتر شناسایی کنند.»

این تغییرات به این دلیل معرفی شده‌اند که ایجاد و نگهداری CSAM غیرقانونی است، به این معنی که توسعه‌دهندگان هوش مصنوعی و دیگران نمی‌توانند چنین تصاویری را به عنوان بخشی از یک رژیم آزمایشی ایجاد کنند. تا کنون، مقامات مجبور بودند تا زمانی که CSAM تولید شده توسط هوش مصنوعی به صورت آنلاین آپلود می‌شد، منتظر بمانند تا با آن برخورد کنند. این قانون با کمک به جلوگیری از ایجاد این تصاویر در مبدأ، با هدف رفع این مشکل است.

این تغییرات توسط دولت به عنوان اصلاحاتی بر لایحه جرایم و پلیس معرفی می‌شوند، قانونی که همچنین ممنوعیت نگهداری، ایجاد یا توزیع مدل‌های هوش مصنوعی طراحی شده برای تولید مواد سوءاستفاده جنسی از کودکان را معرفی می‌کند. این هفته نارایان از مقر بنیاد Childline در لندن، یک خط تلفنی برای کودکان، بازدید کرد و به یک شبیه‌سازی تماس با مشاوران گوش داد که شامل گزارشی از سوءاستفاده مبتنی بر هوش مصنوعی بود. این تماس، نوجوانی را به تصویر می‌کشید که پس از اخاذی توسط یک دیپ‌فیک جنسی‌شده از خودش که با استفاده از هوش مصنوعی ساخته شده بود، به دنبال کمک بود.

او گفت: «وقتی درباره کودکانی می‌شنوم که در معرض اخاذی آنلاین قرار می‌گیرند، این موضوع باعث خشم شدید من و خشم به‌حق والدین می‌شود.»

بنیاد نظارت بر اینترنت (Internet Watch Foundation)، که CSAM را به صورت آنلاین رصد می‌کند، اعلام کرد که گزارش‌های مربوط به مواد سوءاستفاده تولید شده توسط هوش مصنوعی – مانند یک صفحه وب که ممکن است حاوی چندین تصویر باشد – تاکنون در سال جاری بیش از دو برابر شده است. موارد مربوط به مواد دسته A – جدی‌ترین شکل سوءاستفاده – از ۲۶۲۱ تصویر یا ویدئو به ۳۰۸۶ مورد افزایش یافته است. دختران به طور غالب هدف قرار گرفته‌اند و ۹۴ درصد از تصاویر غیرقانونی هوش مصنوعی در سال ۲۰۲۵ را تشکیل می‌دهند، در حالی که تصاویر نوزادان تا کودکان دو ساله از پنج مورد در سال ۲۰۲۴ به ۹۲ مورد در سال ۲۰۲۵ افزایش یافته است.

کری اسمیت، مدیر اجرایی بنیاد نظارت بر اینترنت، گفت که تغییر قانون می‌تواند «گامی حیاتی برای اطمینان از ایمنی محصولات هوش مصنوعی قبل از عرضه آن‌ها باشد».

او گفت: «ابزارهای هوش مصنوعی به بازماندگان اجازه می‌دهند تا تنها با چند کلیک دوباره قربانی شوند و به مجرمان این امکان را می‌دهند که مقادیر نامحدودی از محتوای سوءاستفاده جنسی از کودکان را که پیچیده و واقع‌گرایانه است، تولید کنند.» «محتوایی که رنج قربانیان را بیشتر کالا می‌کند و کودکان، به‌ویژه دختران را در فضای آنلاین و آفلاین ناامن‌تر می‌سازد.» همچنین چایلدلاین جزئیاتی از جلسات مشاوره که در آن‌ها به هوش مصنوعی اشاره شده بود را منتشر کرد. آسیب‌های ناشی از هوش مصنوعی که در این گفتگوها ذکر شده است عبارتند از: استفاده از هوش مصنوعی برای ارزیابی وزن، بدن و ظاهر؛ چت‌بات‌هایی که کودکان را از صحبت با بزرگسالان امن در مورد سوءاستفاده منصرف می‌کنند؛ قلدری آنلاین با محتوای تولید شده توسط هوش مصنوعی؛ و باج‌گیری آنلاین با استفاده از تصاویر جعلی هوش مصنوعی. بین آوریل و سپتامبر امسال، چایلدلاین ۳۶۷ جلسه مشاوره ارائه کرد که در آن‌ها به هوش مصنوعی، چت‌بات‌ها و اصطلاحات مرتبط اشاره شده بود، که چهار برابر بیشتر از مدت مشابه سال گذشته است. نیمی از موارد اشاره به هوش مصنوعی در جلسات سال ۲۰۲۵ مربوط به سلامت روان و رفاه بود، از جمله استفاده از چت‌بات‌ها برای پشتیبانی و اپلیکیشن‌های درمانی مبتنی بر هوش مصنوعی.