شرکت هوش مصنوعی مدعی توقف کمپین حملات سایبری با حمایت دولت چین شد
یک شرکت پیشرو در زمینه هوش مصنوعی مدعی شده است که یک کمپین "جاسوسی سایبری" با حمایت چین را که قادر به نفوذ به شرکتهای مالی و آژانسهای دولتی با حداقل نظارت انسانی بوده است، متوقف کرده است. شرکت Anthropic مستقر در ایالات متحده اعلام کرد که ابزار کدنویسی آن، Claude Code، توسط یک گروه تحت حمایت دولت چین "دستکاری" شده است تا در ماه سپتامبر به ۳۰ نهاد در سراسر جهان حمله کند و به "تعداد انگشتشماری نفوذ موفق" دست یابد. این شرکت در پستی در وبلاگ خود در روز پنجشنبه نوشت که این یک "تشدید قابل توجه" نسبت به حملات قبلی با استفاده از هوش مصنوعی بوده است که رصد کرده است، زیرا کلود عمدتاً به طور مستقل عمل میکرد: ۸۰ تا ۹۰ درصد عملیات درگیر در حمله بدون دخالت انسان انجام شده است. این شرکت نوشت: "مهاجم به آنچه ما معتقدیم اولین مورد مستند از یک حمله سایبری است که عمدتاً بدون مداخله انسانی در مقیاس بزرگ اجرا شده است، دست یافته است." Anthropic مشخص نکرد که کدام موسسات مالی و آژانسهای دولتی هدف قرار گرفتهاند، یا هکرها دقیقاً به چه چیزی دست یافتهاند - اگرچه گفت که آنها توانستهاند به دادههای داخلی اهداف خود دسترسی پیدا کنند. این شرکت گفت که کلود در اجرای حملات اشتباهات متعددی مرتکب شده است، گاهی اوقات حقایقی را در مورد اهداف خود جعل میکرده یا ادعا میکرده که اطلاعاتی را که به راحتی قابل دسترسی بوده "کشف" کرده است. سیاستگذاران و برخی کارشناسان گفتند که این یافتهها نشانهای نگرانکننده از توانایی سیستمهای هوش مصنوعی خاص است: ابزارهایی مانند کلود اکنون قادر به کار مستقل برای مدت طولانیتری هستند. سناتور کریس مورفی از ایالات متحده در پاسخ به این یافتهها در X نوشت: "بیدار شوید. اگر فردا مقررات هوش مصنوعی را به اولویت ملی تبدیل نکنیم، این [هوش مصنوعی] ما را نابود خواهد کرد - زودتر از آنچه فکر میکنیم." فرد هیدینگ، محقق امنیت محاسباتی در دانشگاه هاروارد، گفت: "سیستمهای هوش مصنوعی اکنون میتوانند وظایفی را انجام دهند که قبلاً به اپراتورهای ماهر انسانی نیاز داشت. ایجاد آسیب واقعی برای مهاجمان بسیار آسان شده است. شرکتهای هوش مصنوعی به اندازه کافی مسئولیتپذیر نیستند." سایر کارشناسان امنیت سایبری بدبینتر بودند و به ادعاهای اغراقآمیز در مورد حملات سایبری با سوخت هوش مصنوعی در سالهای اخیر اشاره کردند - مانند "رمز شکن رمز عبور" مبتنی بر هوش مصنوعی در سال ۲۰۲۳ که عملکردی بهتر از روشهای متعارف نداشت - و پیشنهاد کردند که Anthropic در تلاش است تا هیجان پیرامون هوش مصنوعی را ایجاد کند. میشال ووزنیاک، کارشناس مستقل امنیت سایبری، گفت: "از نظر من، Anthropic اتوماسیون پیشرفته را توصیف میکند، نه چیز دیگر. تولید کد درگیر است، اما این 'هوش' نیست، این فقط کپی-پیست پر زرق و برق است." ووزنیاک گفت که انتشار Anthropic حواسپرتی از یک نگرانی بزرگتر امنیت سایبری است: کسبوکارها و دولتها ابزارهای هوش مصنوعی "پیچیده و با درک ضعیف" را بدون درک آنها در عملیات خود ادغام میکنند و آنها را در معرض آسیبپذیریها قرار میدهند.
تهدید واقعی، به گفته او، خود مجرمان سایبری و شیوههای امنیتی ضعیف بودند. آنتروپیک، مانند سایر شرکتهای پیشرو در حوزه هوش مصنوعی، دارای سازوکارهایی است که قرار است مانع از کمک مدلهایش به حملات سایبری یا ترویج آسیبهای کلی شوند. با این حال، این شرکت اعلام کرد که هکرها توانستند با وادار کردن کلود به ایفای نقش «کارمند یک شرکت معتبر امنیت سایبری» که در حال انجام آزمایش است، این سازوکارها را دور بزنند. ووزنیاک گفت: «ارزشگذاری آنتروپیک حدود ۱۸۰ میلیارد دلار است و آنها هنوز نتوانستهاند بفهمند چگونه ابزارهایشان توسط تاکتیکی که یک نوجوان ۱۳ ساله هنگام تماسهای شوخی استفاده میکند، دور زده نشوند.» ماریوش هوبهان، بنیانگذار آپولو ریسرچ، شرکتی که مدلهای هوش مصنوعی را از نظر ایمنی ارزیابی میکند، گفت که این حملات نشانهای از آنچه میتواند با افزایش قابلیتها رخ دهد، است. او افزود: «من فکر میکنم جامعه برای این نوع چشمانداز به سرعت در حال تغییر از نظر قابلیتهای هوش مصنوعی و سایبری آمادگی کافی ندارد. انتظار دارم در سالهای آینده رویدادهای مشابه بسیاری با پیامدهای احتمالا بزرگتر رخ دهد.»
تهدید واقعی، به گفته او، خود مجرمان سایبری و شیوههای امنیتی ضعیف بودند. آنتروپیک، مانند سایر شرکتهای پیشرو در حوزه هوش مصنوعی، دارای سازوکارهایی است که قرار است مانع از کمک مدلهایش به حملات سایبری یا ترویج آسیبهای کلی شوند. با این حال، این شرکت اعلام کرد که هکرها توانستند با وادار کردن کلود به ایفای نقش «کارمند یک شرکت معتبر امنیت سایبری» که در حال انجام آزمایش است، این سازوکارها را دور بزنند. ووزنیاک گفت: «ارزشگذاری آنتروپیک حدود ۱۸۰ میلیارد دلار است و آنها هنوز نتوانستهاند بفهمند چگونه ابزارهایشان توسط تاکتیکی که یک نوجوان ۱۳ ساله هنگام تماسهای شوخی استفاده میکند، دور زده نشوند.» ماریوش هوبهان، بنیانگذار آپولو ریسرچ، شرکتی که مدلهای هوش مصنوعی را از نظر ایمنی ارزیابی میکند، گفت که این حملات نشانهای از آنچه میتواند با افزایش قابلیتها رخ دهد، است. او افزود: «من فکر میکنم جامعه برای این نوع چشمانداز به سرعت در حال تغییر از نظر قابلیتهای هوش مصنوعی و سایبری آمادگی کافی ندارد. انتظار دارم در سالهای آینده رویدادهای مشابه بسیاری با پیامدهای احتمالا بزرگتر رخ دهد.»