«این شغل پراسترس خواهد بود»: سم آلتمن حقوق ۵۵۵ هزار دلاری برای پرکردن چالش‌برانگیزترین نقش در هوش مصنوعی پیشنهاد می‌دهد

📅 1404/10/8 22:44 | ⏱️ 4 دقیقه مطالعه | مشاهده در منبع اصلی
«این شغل پراسترس خواهد بود»: سم آلتمن حقوق ۵۵۵ هزار دلاری برای پرکردن چالش‌برانگیزترین نقش در هوش مصنوعی پیشنهاد می‌دهد
سازنده چت‌جی‌پی‌تی آگهی شغلی با حقوق سالانه ۵۵۵ هزار دلار منتشر کرده است که شرح وظایف آن به قدری دشوار است که حتی سوپرمن را نیز به نفس‌نفس انداخت. در شغلی که شاید نزدیک به غیرممکن باشد، "مسئول آمادگی" در شرکت OpenAI مستقیماً مسئول دفاع در برابر خطرات هوش مصنوعی‌های قدرتمندتر از همیشه، سلامت روان انسان، امنیت سایبری و سلاح‌های بیولوژیکی خواهد بود. این قبل از آن است که فرد منتخب مجبور شود نگران این احتمال باشد که هوش مصنوعی‌ها ممکن است به زودی شروع به آموزش خود کنند، در حالی که برخی از کارشناسان نگرانند که آنها "علیه ما اقدام کنند". سم آلتمن، مدیرعامل این سازمان مستقر در سانفرانسیسکو، در هنگام آغاز جستجو برای پر کردن "نقشی حیاتی" برای "کمک به جهان" گفت: "این شغل پراسترسی خواهد بود و شما تقریباً بلافاصله وارد اعماق خواهید شد." فرد منتخب مسئول ارزیابی و کاهش تهدیدات نوظهور و "پیگیری و آماده‌سازی برای قابلیت‌های پیشرفته‌ای که خطرات جدیدی از آسیب شدید ایجاد می‌کنند" خواهد بود. برخی از مدیران سابق در این پست تنها برای مدت کوتاهی دوام آورده‌اند. این آگهی در بحبوحه هشدارهایی از درون صنعت هوش مصنوعی درباره خطرات این فناوری با قابلیت‌های فزاینده منتشر می‌شود. روز دوشنبه، مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، در برنامه "امروز" رادیو ۴ بی‌بی‌سی گفت: "صادقانه بگویم، اگر در این لحظه کمی نترسید، پس حواستان را جمع نکرده‌اید." دیمیس هاسابیس، هم‌بنیانگذار برنده جایزه نوبل گوگل دیپ‌مایند، در این ماه نسبت به خطراتی از جمله "خارج شدن هوش مصنوعی از کنترل به نحوی که به بشریت آسیب برساند" هشدار داد. در میان مقاومت کاخ سفید دونالد ترامپ، مقررات کمی در سطح ملی یا بین‌المللی برای هوش مصنوعی وجود دارد. یوشوا بنجیو، دانشمند کامپیوتر که به عنوان یکی از "پدران هوش مصنوعی" شناخته می‌شود، اخیراً گفته است: "یک ساندویچ مقررات بیشتری نسبت به هوش مصنوعی دارد." در نتیجه، شرکت‌های هوش مصنوعی عمدتاً خود را تنظیم می‌کنند. آلتمن در پلتفرم X هنگام راه‌اندازی جستجوی شغلی گفت: "ما پایه محکمی برای اندازه‌گیری قابلیت‌های رو به رشد داریم، اما وارد دنیایی می‌شویم که در آن به درک و اندازه‌گیری دقیق‌تری از چگونگی سوءاستفاده از این قابلیت‌ها و چگونگی محدود کردن این پیامدهای منفی هم در محصولاتمان و هم در جهان نیاز داریم، به گونه‌ای که همه ما بتوانیم از مزایای فوق‌العاده آن بهره‌مند شویم. این سوالات دشوار هستند و سابقه کمی دارند." یکی از کاربران با طعنه پاسخ داد: "به نظر خیلی آرام می‌آید، آیا تعطیلات هم شامل می‌شود؟" آنچه شامل می‌شود، سهم نامشخصی از سهام در OpenAI، شرکتی که ارزش آن ۵۰۰ میلیارد دلار تخمین زده شده است، می‌باشد.

ماه گذشته، شرکت رقیب Anthropic اولین حملات سایبری با قابلیت هوش مصنوعی را گزارش کرد که در آن هوش مصنوعی تا حد زیادی به طور مستقل تحت نظارت عوامل مظنون دولتی چین عمل کرد تا با موفقیت به داده‌های داخلی اهداف نفوذ کرده و به آن‌ها دسترسی یابد. این ماه، OpenAI اعلام کرد که آخرین مدل آن در هک کردن تقریباً سه برابر بهتر از سه ماه قبل عمل کرده و گفت: «انتظار داریم مدل‌های هوش مصنوعی آینده نیز این مسیر را ادامه دهند». OpenAI همچنین در حال دفاع از شکایتی از سوی خانواده آدام رین، نوجوان ۱۶ ساله‌ای از کالیفرنیا است که پس از تشویق ادعایی توسط ChatGPT خودکشی کرد. این شرکت استدلال کرده است که رین از این فناوری سوءاستفاده کرده است. پرونده دیگری که این ماه ثبت شد، ادعا می‌کند که ChatGPT توهمات پارانویید یک مرد ۵۶ ساله در کنتیکت، استاین-اریک سِلبرگ را تشویق کرده است، که سپس مادر ۸۳ ساله خود را به قتل رساند و خودکشی کرد. سخنگوی OpenAI اعلام کرد که در حال بررسی پرونده سِلبرگ است که آن را «بسیار دلخراش» توصیف کرد و گفت که در حال بهبود آموزش ChatGPT «برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و هدایت افراد به سمت حمایت‌های دنیای واقعی» است.