شرکتهای فناوری و نهادهای ایمنی کودکان بریتانیا توانایی ابزارهای هوش مصنوعی در تولید تصاویر سوءاستفاده را آزمایش میکنند
شرکتهای فناوری و سازمانهای حفاظت از کودکان، طبق قانون جدید بریتانیا، این اختیار را خواهند داشت تا بررسی کنند آیا ابزارهای هوش مصنوعی قادر به تولید تصاویر سوءاستفاده از کودکان هستند یا خیر. این اعلامیه در حالی منتشر شد که یک نهاد ناظر ایمنی فاش کرد که گزارشهای مربوط به مواد سوءاستفاده جنسی از کودکان تولید شده توسط هوش مصنوعی (CSAM) در سال گذشته بیش از دو برابر شده و از ۱۹۹ مورد در سال ۲۰۲۴ به ۴۲۶ مورد در سال ۲۰۲۵ رسیده است.
بر اساس این تغییر، دولت به شرکتهای مشخص هوش مصنوعی و سازمانهای ایمنی کودکان اجازه خواهد داد تا مدلهای هوش مصنوعی – فناوری زیربنایی چتباتهایی مانند ChatGPT و تولیدکنندگان تصویر مانند Veo 3 گوگل – را بررسی کرده و اطمینان حاصل کنند که دارای حفاظهایی برای جلوگیری از ایجاد تصاویر سوءاستفاده جنسی از کودکان هستند. کانشک نارایان، وزیر هوش مصنوعی و ایمنی آنلاین، گفت که این اقدام «در نهایت به معنای توقف سوءاستفاده قبل از وقوع آن است» و افزود: «کارشناسان، تحت شرایط سختگیرانه، اکنون میتوانند ریسک را در مدلهای هوش مصنوعی زودتر شناسایی کنند.»
این تغییرات به این دلیل معرفی شدهاند که ایجاد و نگهداری CSAM غیرقانونی است، به این معنی که توسعهدهندگان هوش مصنوعی و دیگران نمیتوانند چنین تصاویری را به عنوان بخشی از یک رژیم آزمایشی ایجاد کنند. تا کنون، مقامات مجبور بودند تا زمانی که CSAM تولید شده توسط هوش مصنوعی به صورت آنلاین آپلود میشد، منتظر بمانند تا با آن برخورد کنند. این قانون با کمک به جلوگیری از ایجاد این تصاویر در مبدأ، با هدف رفع این مشکل است.
این تغییرات توسط دولت به عنوان اصلاحاتی بر لایحه جرایم و پلیس معرفی میشوند، قانونی که همچنین ممنوعیت نگهداری، ایجاد یا توزیع مدلهای هوش مصنوعی طراحی شده برای تولید مواد سوءاستفاده جنسی از کودکان را معرفی میکند. این هفته نارایان از مقر بنیاد Childline در لندن، یک خط تلفنی برای کودکان، بازدید کرد و به یک شبیهسازی تماس با مشاوران گوش داد که شامل گزارشی از سوءاستفاده مبتنی بر هوش مصنوعی بود. این تماس، نوجوانی را به تصویر میکشید که پس از اخاذی توسط یک دیپفیک جنسیشده از خودش که با استفاده از هوش مصنوعی ساخته شده بود، به دنبال کمک بود.
او گفت: «وقتی درباره کودکانی میشنوم که در معرض اخاذی آنلاین قرار میگیرند، این موضوع باعث خشم شدید من و خشم بهحق والدین میشود.»
بنیاد نظارت بر اینترنت (Internet Watch Foundation)، که CSAM را به صورت آنلاین رصد میکند، اعلام کرد که گزارشهای مربوط به مواد سوءاستفاده تولید شده توسط هوش مصنوعی – مانند یک صفحه وب که ممکن است حاوی چندین تصویر باشد – تاکنون در سال جاری بیش از دو برابر شده است. موارد مربوط به مواد دسته A – جدیترین شکل سوءاستفاده – از ۲۶۲۱ تصویر یا ویدئو به ۳۰۸۶ مورد افزایش یافته است. دختران به طور غالب هدف قرار گرفتهاند و ۹۴ درصد از تصاویر غیرقانونی هوش مصنوعی در سال ۲۰۲۵ را تشکیل میدهند، در حالی که تصاویر نوزادان تا کودکان دو ساله از پنج مورد در سال ۲۰۲۴ به ۹۲ مورد در سال ۲۰۲۵ افزایش یافته است.
کری اسمیت، مدیر اجرایی بنیاد نظارت بر اینترنت، گفت که تغییر قانون میتواند «گامی حیاتی برای اطمینان از ایمنی محصولات هوش مصنوعی قبل از عرضه آنها باشد».
او گفت: «ابزارهای هوش مصنوعی به بازماندگان اجازه میدهند تا تنها با چند کلیک دوباره قربانی شوند و به مجرمان این امکان را میدهند که مقادیر نامحدودی از محتوای سوءاستفاده جنسی از کودکان را که پیچیده و واقعگرایانه است، تولید کنند.» «محتوایی که رنج قربانیان را بیشتر کالا میکند و کودکان، بهویژه دختران را در فضای آنلاین و آفلاین ناامنتر میسازد.» همچنین چایلدلاین جزئیاتی از جلسات مشاوره که در آنها به هوش مصنوعی اشاره شده بود را منتشر کرد. آسیبهای ناشی از هوش مصنوعی که در این گفتگوها ذکر شده است عبارتند از: استفاده از هوش مصنوعی برای ارزیابی وزن، بدن و ظاهر؛ چتباتهایی که کودکان را از صحبت با بزرگسالان امن در مورد سوءاستفاده منصرف میکنند؛ قلدری آنلاین با محتوای تولید شده توسط هوش مصنوعی؛ و باجگیری آنلاین با استفاده از تصاویر جعلی هوش مصنوعی. بین آوریل و سپتامبر امسال، چایلدلاین ۳۶۷ جلسه مشاوره ارائه کرد که در آنها به هوش مصنوعی، چتباتها و اصطلاحات مرتبط اشاره شده بود، که چهار برابر بیشتر از مدت مشابه سال گذشته است. نیمی از موارد اشاره به هوش مصنوعی در جلسات سال ۲۰۲۵ مربوط به سلامت روان و رفاه بود، از جمله استفاده از چتباتها برای پشتیبانی و اپلیکیشنهای درمانی مبتنی بر هوش مصنوعی.
بر اساس این تغییر، دولت به شرکتهای مشخص هوش مصنوعی و سازمانهای ایمنی کودکان اجازه خواهد داد تا مدلهای هوش مصنوعی – فناوری زیربنایی چتباتهایی مانند ChatGPT و تولیدکنندگان تصویر مانند Veo 3 گوگل – را بررسی کرده و اطمینان حاصل کنند که دارای حفاظهایی برای جلوگیری از ایجاد تصاویر سوءاستفاده جنسی از کودکان هستند. کانشک نارایان، وزیر هوش مصنوعی و ایمنی آنلاین، گفت که این اقدام «در نهایت به معنای توقف سوءاستفاده قبل از وقوع آن است» و افزود: «کارشناسان، تحت شرایط سختگیرانه، اکنون میتوانند ریسک را در مدلهای هوش مصنوعی زودتر شناسایی کنند.»
این تغییرات به این دلیل معرفی شدهاند که ایجاد و نگهداری CSAM غیرقانونی است، به این معنی که توسعهدهندگان هوش مصنوعی و دیگران نمیتوانند چنین تصاویری را به عنوان بخشی از یک رژیم آزمایشی ایجاد کنند. تا کنون، مقامات مجبور بودند تا زمانی که CSAM تولید شده توسط هوش مصنوعی به صورت آنلاین آپلود میشد، منتظر بمانند تا با آن برخورد کنند. این قانون با کمک به جلوگیری از ایجاد این تصاویر در مبدأ، با هدف رفع این مشکل است.
این تغییرات توسط دولت به عنوان اصلاحاتی بر لایحه جرایم و پلیس معرفی میشوند، قانونی که همچنین ممنوعیت نگهداری، ایجاد یا توزیع مدلهای هوش مصنوعی طراحی شده برای تولید مواد سوءاستفاده جنسی از کودکان را معرفی میکند. این هفته نارایان از مقر بنیاد Childline در لندن، یک خط تلفنی برای کودکان، بازدید کرد و به یک شبیهسازی تماس با مشاوران گوش داد که شامل گزارشی از سوءاستفاده مبتنی بر هوش مصنوعی بود. این تماس، نوجوانی را به تصویر میکشید که پس از اخاذی توسط یک دیپفیک جنسیشده از خودش که با استفاده از هوش مصنوعی ساخته شده بود، به دنبال کمک بود.
او گفت: «وقتی درباره کودکانی میشنوم که در معرض اخاذی آنلاین قرار میگیرند، این موضوع باعث خشم شدید من و خشم بهحق والدین میشود.»
بنیاد نظارت بر اینترنت (Internet Watch Foundation)، که CSAM را به صورت آنلاین رصد میکند، اعلام کرد که گزارشهای مربوط به مواد سوءاستفاده تولید شده توسط هوش مصنوعی – مانند یک صفحه وب که ممکن است حاوی چندین تصویر باشد – تاکنون در سال جاری بیش از دو برابر شده است. موارد مربوط به مواد دسته A – جدیترین شکل سوءاستفاده – از ۲۶۲۱ تصویر یا ویدئو به ۳۰۸۶ مورد افزایش یافته است. دختران به طور غالب هدف قرار گرفتهاند و ۹۴ درصد از تصاویر غیرقانونی هوش مصنوعی در سال ۲۰۲۵ را تشکیل میدهند، در حالی که تصاویر نوزادان تا کودکان دو ساله از پنج مورد در سال ۲۰۲۴ به ۹۲ مورد در سال ۲۰۲۵ افزایش یافته است.
کری اسمیت، مدیر اجرایی بنیاد نظارت بر اینترنت، گفت که تغییر قانون میتواند «گامی حیاتی برای اطمینان از ایمنی محصولات هوش مصنوعی قبل از عرضه آنها باشد».
او گفت: «ابزارهای هوش مصنوعی به بازماندگان اجازه میدهند تا تنها با چند کلیک دوباره قربانی شوند و به مجرمان این امکان را میدهند که مقادیر نامحدودی از محتوای سوءاستفاده جنسی از کودکان را که پیچیده و واقعگرایانه است، تولید کنند.» «محتوایی که رنج قربانیان را بیشتر کالا میکند و کودکان، بهویژه دختران را در فضای آنلاین و آفلاین ناامنتر میسازد.» همچنین چایلدلاین جزئیاتی از جلسات مشاوره که در آنها به هوش مصنوعی اشاره شده بود را منتشر کرد. آسیبهای ناشی از هوش مصنوعی که در این گفتگوها ذکر شده است عبارتند از: استفاده از هوش مصنوعی برای ارزیابی وزن، بدن و ظاهر؛ چتباتهایی که کودکان را از صحبت با بزرگسالان امن در مورد سوءاستفاده منصرف میکنند؛ قلدری آنلاین با محتوای تولید شده توسط هوش مصنوعی؛ و باجگیری آنلاین با استفاده از تصاویر جعلی هوش مصنوعی. بین آوریل و سپتامبر امسال، چایلدلاین ۳۶۷ جلسه مشاوره ارائه کرد که در آنها به هوش مصنوعی، چتباتها و اصطلاحات مرتبط اشاره شده بود، که چهار برابر بیشتر از مدت مشابه سال گذشته است. نیمی از موارد اشاره به هوش مصنوعی در جلسات سال ۲۰۲۵ مربوط به سلامت روان و رفاه بود، از جمله استفاده از چتباتها برای پشتیبانی و اپلیکیشنهای درمانی مبتنی بر هوش مصنوعی.