شرکت هوش مصنوعی مدعی توقف کمپین حملات سایبری با حمایت دولت چین شد

📅 1404/8/24 0:27 | ⏱️ 4 دقیقه مطالعه | مشاهده در منبع اصلی
شرکت هوش مصنوعی مدعی توقف کمپین حملات سایبری با حمایت دولت چین شد
یک شرکت پیشرو در زمینه هوش مصنوعی مدعی شده است که یک کمپین "جاسوسی سایبری" با حمایت چین را که قادر به نفوذ به شرکت‌های مالی و آژانس‌های دولتی با حداقل نظارت انسانی بوده است، متوقف کرده است. شرکت Anthropic مستقر در ایالات متحده اعلام کرد که ابزار کدنویسی آن، Claude Code، توسط یک گروه تحت حمایت دولت چین "دستکاری" شده است تا در ماه سپتامبر به ۳۰ نهاد در سراسر جهان حمله کند و به "تعداد انگشت‌شماری نفوذ موفق" دست یابد. این شرکت در پستی در وبلاگ خود در روز پنجشنبه نوشت که این یک "تشدید قابل توجه" نسبت به حملات قبلی با استفاده از هوش مصنوعی بوده است که رصد کرده است، زیرا کلود عمدتاً به طور مستقل عمل می‌کرد: ۸۰ تا ۹۰ درصد عملیات درگیر در حمله بدون دخالت انسان انجام شده است. این شرکت نوشت: "مهاجم به آنچه ما معتقدیم اولین مورد مستند از یک حمله سایبری است که عمدتاً بدون مداخله انسانی در مقیاس بزرگ اجرا شده است، دست یافته است." Anthropic مشخص نکرد که کدام موسسات مالی و آژانس‌های دولتی هدف قرار گرفته‌اند، یا هکرها دقیقاً به چه چیزی دست یافته‌اند - اگرچه گفت که آنها توانسته‌اند به داده‌های داخلی اهداف خود دسترسی پیدا کنند. این شرکت گفت که کلود در اجرای حملات اشتباهات متعددی مرتکب شده است، گاهی اوقات حقایقی را در مورد اهداف خود جعل می‌کرده یا ادعا می‌کرده که اطلاعاتی را که به راحتی قابل دسترسی بوده "کشف" کرده است. سیاست‌گذاران و برخی کارشناسان گفتند که این یافته‌ها نشانه‌ای نگران‌کننده از توانایی سیستم‌های هوش مصنوعی خاص است: ابزارهایی مانند کلود اکنون قادر به کار مستقل برای مدت طولانی‌تری هستند. سناتور کریس مورفی از ایالات متحده در پاسخ به این یافته‌ها در X نوشت: "بیدار شوید. اگر فردا مقررات هوش مصنوعی را به اولویت ملی تبدیل نکنیم، این [هوش مصنوعی] ما را نابود خواهد کرد - زودتر از آنچه فکر می‌کنیم." فرد هیدینگ، محقق امنیت محاسباتی در دانشگاه هاروارد، گفت: "سیستم‌های هوش مصنوعی اکنون می‌توانند وظایفی را انجام دهند که قبلاً به اپراتورهای ماهر انسانی نیاز داشت. ایجاد آسیب واقعی برای مهاجمان بسیار آسان شده است. شرکت‌های هوش مصنوعی به اندازه کافی مسئولیت‌پذیر نیستند." سایر کارشناسان امنیت سایبری بدبین‌تر بودند و به ادعاهای اغراق‌آمیز در مورد حملات سایبری با سوخت هوش مصنوعی در سال‌های اخیر اشاره کردند - مانند "رمز شکن رمز عبور" مبتنی بر هوش مصنوعی در سال ۲۰۲۳ که عملکردی بهتر از روش‌های متعارف نداشت - و پیشنهاد کردند که Anthropic در تلاش است تا هیجان پیرامون هوش مصنوعی را ایجاد کند. میشال ووزنیاک، کارشناس مستقل امنیت سایبری، گفت: "از نظر من، Anthropic اتوماسیون پیشرفته را توصیف می‌کند، نه چیز دیگر. تولید کد درگیر است، اما این 'هوش' نیست، این فقط کپی-پیست پر زرق و برق است." ووزنیاک گفت که انتشار Anthropic حواس‌پرتی از یک نگرانی بزرگتر امنیت سایبری است: کسب‌وکارها و دولت‌ها ابزارهای هوش مصنوعی "پیچیده و با درک ضعیف" را بدون درک آنها در عملیات خود ادغام می‌کنند و آنها را در معرض آسیب‌پذیری‌ها قرار می‌دهند.

تهدید واقعی، به گفته او، خود مجرمان سایبری و شیوه‌های امنیتی ضعیف بودند. آنتروپیک، مانند سایر شرکت‌های پیشرو در حوزه هوش مصنوعی، دارای سازوکارهایی است که قرار است مانع از کمک مدل‌هایش به حملات سایبری یا ترویج آسیب‌های کلی شوند. با این حال، این شرکت اعلام کرد که هکرها توانستند با وادار کردن کلود به ایفای نقش «کارمند یک شرکت معتبر امنیت سایبری» که در حال انجام آزمایش است، این سازوکارها را دور بزنند. ووزنیاک گفت: «ارزش‌گذاری آنتروپیک حدود ۱۸۰ میلیارد دلار است و آن‌ها هنوز نتوانسته‌اند بفهمند چگونه ابزارهایشان توسط تاکتیکی که یک نوجوان ۱۳ ساله هنگام تماس‌های شوخی استفاده می‌کند، دور زده نشوند.» ماریوش هوبهان، بنیانگذار آپولو ریسرچ، شرکتی که مدل‌های هوش مصنوعی را از نظر ایمنی ارزیابی می‌کند، گفت که این حملات نشانه‌ای از آنچه می‌تواند با افزایش قابلیت‌ها رخ دهد، است. او افزود: «من فکر می‌کنم جامعه برای این نوع چشم‌انداز به سرعت در حال تغییر از نظر قابلیت‌های هوش مصنوعی و سایبری آمادگی کافی ندارد. انتظار دارم در سال‌های آینده رویدادهای مشابه بسیاری با پیامدهای احتمالا بزرگتر رخ دهد.»