«این شغل پراسترس خواهد بود»: سم آلتمن حقوق ۵۵۵ هزار دلاری برای پرکردن چالشبرانگیزترین نقش در هوش مصنوعی پیشنهاد میدهد
سازنده چتجیپیتی آگهی شغلی با حقوق سالانه ۵۵۵ هزار دلار منتشر کرده است که شرح وظایف آن به قدری دشوار است که حتی سوپرمن را نیز به نفسنفس انداخت. در شغلی که شاید نزدیک به غیرممکن باشد، "مسئول آمادگی" در شرکت OpenAI مستقیماً مسئول دفاع در برابر خطرات هوش مصنوعیهای قدرتمندتر از همیشه، سلامت روان انسان، امنیت سایبری و سلاحهای بیولوژیکی خواهد بود. این قبل از آن است که فرد منتخب مجبور شود نگران این احتمال باشد که هوش مصنوعیها ممکن است به زودی شروع به آموزش خود کنند، در حالی که برخی از کارشناسان نگرانند که آنها "علیه ما اقدام کنند". سم آلتمن، مدیرعامل این سازمان مستقر در سانفرانسیسکو، در هنگام آغاز جستجو برای پر کردن "نقشی حیاتی" برای "کمک به جهان" گفت: "این شغل پراسترسی خواهد بود و شما تقریباً بلافاصله وارد اعماق خواهید شد." فرد منتخب مسئول ارزیابی و کاهش تهدیدات نوظهور و "پیگیری و آمادهسازی برای قابلیتهای پیشرفتهای که خطرات جدیدی از آسیب شدید ایجاد میکنند" خواهد بود. برخی از مدیران سابق در این پست تنها برای مدت کوتاهی دوام آوردهاند. این آگهی در بحبوحه هشدارهایی از درون صنعت هوش مصنوعی درباره خطرات این فناوری با قابلیتهای فزاینده منتشر میشود. روز دوشنبه، مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، در برنامه "امروز" رادیو ۴ بیبیسی گفت: "صادقانه بگویم، اگر در این لحظه کمی نترسید، پس حواستان را جمع نکردهاید." دیمیس هاسابیس، همبنیانگذار برنده جایزه نوبل گوگل دیپمایند، در این ماه نسبت به خطراتی از جمله "خارج شدن هوش مصنوعی از کنترل به نحوی که به بشریت آسیب برساند" هشدار داد. در میان مقاومت کاخ سفید دونالد ترامپ، مقررات کمی در سطح ملی یا بینالمللی برای هوش مصنوعی وجود دارد. یوشوا بنجیو، دانشمند کامپیوتر که به عنوان یکی از "پدران هوش مصنوعی" شناخته میشود، اخیراً گفته است: "یک ساندویچ مقررات بیشتری نسبت به هوش مصنوعی دارد." در نتیجه، شرکتهای هوش مصنوعی عمدتاً خود را تنظیم میکنند. آلتمن در پلتفرم X هنگام راهاندازی جستجوی شغلی گفت: "ما پایه محکمی برای اندازهگیری قابلیتهای رو به رشد داریم، اما وارد دنیایی میشویم که در آن به درک و اندازهگیری دقیقتری از چگونگی سوءاستفاده از این قابلیتها و چگونگی محدود کردن این پیامدهای منفی هم در محصولاتمان و هم در جهان نیاز داریم، به گونهای که همه ما بتوانیم از مزایای فوقالعاده آن بهرهمند شویم. این سوالات دشوار هستند و سابقه کمی دارند." یکی از کاربران با طعنه پاسخ داد: "به نظر خیلی آرام میآید، آیا تعطیلات هم شامل میشود؟" آنچه شامل میشود، سهم نامشخصی از سهام در OpenAI، شرکتی که ارزش آن ۵۰۰ میلیارد دلار تخمین زده شده است، میباشد.
ماه گذشته، شرکت رقیب Anthropic اولین حملات سایبری با قابلیت هوش مصنوعی را گزارش کرد که در آن هوش مصنوعی تا حد زیادی به طور مستقل تحت نظارت عوامل مظنون دولتی چین عمل کرد تا با موفقیت به دادههای داخلی اهداف نفوذ کرده و به آنها دسترسی یابد. این ماه، OpenAI اعلام کرد که آخرین مدل آن در هک کردن تقریباً سه برابر بهتر از سه ماه قبل عمل کرده و گفت: «انتظار داریم مدلهای هوش مصنوعی آینده نیز این مسیر را ادامه دهند». OpenAI همچنین در حال دفاع از شکایتی از سوی خانواده آدام رین، نوجوان ۱۶ سالهای از کالیفرنیا است که پس از تشویق ادعایی توسط ChatGPT خودکشی کرد. این شرکت استدلال کرده است که رین از این فناوری سوءاستفاده کرده است. پرونده دیگری که این ماه ثبت شد، ادعا میکند که ChatGPT توهمات پارانویید یک مرد ۵۶ ساله در کنتیکت، استاین-اریک سِلبرگ را تشویق کرده است، که سپس مادر ۸۳ ساله خود را به قتل رساند و خودکشی کرد. سخنگوی OpenAI اعلام کرد که در حال بررسی پرونده سِلبرگ است که آن را «بسیار دلخراش» توصیف کرد و گفت که در حال بهبود آموزش ChatGPT «برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و هدایت افراد به سمت حمایتهای دنیای واقعی» است.
ماه گذشته، شرکت رقیب Anthropic اولین حملات سایبری با قابلیت هوش مصنوعی را گزارش کرد که در آن هوش مصنوعی تا حد زیادی به طور مستقل تحت نظارت عوامل مظنون دولتی چین عمل کرد تا با موفقیت به دادههای داخلی اهداف نفوذ کرده و به آنها دسترسی یابد. این ماه، OpenAI اعلام کرد که آخرین مدل آن در هک کردن تقریباً سه برابر بهتر از سه ماه قبل عمل کرده و گفت: «انتظار داریم مدلهای هوش مصنوعی آینده نیز این مسیر را ادامه دهند». OpenAI همچنین در حال دفاع از شکایتی از سوی خانواده آدام رین، نوجوان ۱۶ سالهای از کالیفرنیا است که پس از تشویق ادعایی توسط ChatGPT خودکشی کرد. این شرکت استدلال کرده است که رین از این فناوری سوءاستفاده کرده است. پرونده دیگری که این ماه ثبت شد، ادعا میکند که ChatGPT توهمات پارانویید یک مرد ۵۶ ساله در کنتیکت، استاین-اریک سِلبرگ را تشویق کرده است، که سپس مادر ۸۳ ساله خود را به قتل رساند و خودکشی کرد. سخنگوی OpenAI اعلام کرد که در حال بررسی پرونده سِلبرگ است که آن را «بسیار دلخراش» توصیف کرد و گفت که در حال بهبود آموزش ChatGPT «برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و هدایت افراد به سمت حمایتهای دنیای واقعی» است.