چرا شرکت هوش مصنوعی آنتروپیک به دنبال استخدام متخصص «سلاح‌های شیمیایی و ترکیبات انفجاری» است؟

بی بی سی- شرکت هوش مصنوعی آنتروپیک به دنبال استخدام یک کارشناس سلاح‌های شیمیایی و مواد منفجره با قدرت تخریب بالا است تا از «سوءاستفاده فاجعه‌بار» از نرم‌افزارهایش جلوگیری کند.

این شرکت آمریکایی نگران است که ابزارهای هوش مصنوعی‌اش بتوانند به افراد آموزش دهند که چگونه سلاح‌های شیمیایی یا رادیواکتیو بسازند، و به همین دلیل قصد دارد با کمک یک متخصص اطمینان حاصل کند که سازوکارهای حفاظتی آن به اندازه کافی قوی هستند.

در آگهی استخدامی که در لینکدین منتشر شده، این شرکت اعلام کرده است که متقاضیان باید دست‌کم پنج سال سابقه در زمینه «دفاع در برابر سلاح‌های شیمیایی یا مواد منفجره» داشته باشند و همچنین با «دستگاه‌های پخش مواد رادیولوژیک» - موسوم به «بمب‌های کثیف» - آشنایی داشته باشند.

این شرکت به بی‌بی‌سی گفته است که این موقعیت شغلی مشابه نقش‌هایی است که پیش‌تر نیز در حوزه‌های حساس دیگر ایجاد کرده است.

آنتروپیک تنها شرکت فعال در حوزه هوش مصنوعی نیست که چنین رویکردی را دنبال می‌کند.

شرکت اوپن‌ای‌آی، سازنده چت‌جی‌پی‌تی، نیز شغلی مشابه را آگهی کرده است. این شرکت در وب‌سایت فرصت‌های شغلی خود، به دنبال پژوهشگری در حوزه «ریسک‌های زیستی و شیمیایی» است و برای این شغل حقوق سالانه تا سقف ۴۵۵ هزار دلار پیشنهاد داده است؛ رقمی که تقریبا دو برابر پیشنهاد آنتروپیک است.

با این حال، برخی کارشناسان درباره خطرات این رویکرد ابراز نگرانی کرده‌اند و هشدار داده‌اند که چنین اقداماتی ممکن است به ابزارهای هوش مصنوعی امکان دسترسی به اطلاعات مرتبط با سلاح‌ها را بدهد، حتی اگر به آن‌ها دستور داده شده باشد که از این اطلاعات استفاده نکنند.

دکتر استفانی هر، پژوهشگر حوزه فناوری و از مجریان برنامه تلویزیونی «ای‌آی دیکودد» بی‌بی‌سی، می‌گوید: «آیا اساسا استفاده از سامانه‌های هوش مصنوعی برای کار با اطلاعات حساس مربوط به مواد شیمیایی و مواد منفجره - از جمله بمب‌های کثیف و دیگر سلاح‌های رادیولوژیک - می‌تواند ایمن باشد؟»

او می‌گوید: «هیچ معاهده بین‌المللی یا مقررات مشخصی برای این نوع فعالیت‌ها و استفاده از هوش مصنوعی در ارتباط با چنین سلاح‌هایی وجود ندارد. همه این روندها در فضایی دور از دید عمومی در حال انجام است.»

صنعت هوش مصنوعی به شکل مداوم درباره تهدیدهای بالقوه و حتی وجودی ناشی از این فناوری هشدار داده، اما در عین حال هیچ تلاشی برای کند کردن روند پیشرفت آن صورت نگرفته است.

این موضوع در شرایطی اهمیت بیشتری پیدا کرده که دولت آمریکا پس از عملیات نظامی در ونزوئلا و آغاز جنگ با ایران، از شرکت‌های هوش مصنوعی نیز درخواست همکاری کرده است.

آنتروپیک در حال پیگیری اقدام حقوقی علیه وزارت دفاع آمریکا است که این شرکت را به‌عنوان یک «ریسک در زنجیره تامین» طبقه‌بندی کرده است. این اقدام وزارت دفاع پس از آن صورت گرفت که این شرکت تاکید کرد سامانه‌هایش نباید در سلاح‌های کاملا خودکار یا برای نظارت گسترده بر شهروندان آمریکایی استفاده شوند.

داریو آمودی، یکی از بنیان‌گذاران آنتروپیک، در ماه فوریه نوشته بود که این فناوری هنوز به اندازه کافی پیشرفته نیست و نباید برای چنین اهدافی به کار گرفته شود.

کاخ سفید اعلام کرده است که ارتش آمریکا تحت حاکمیت شرکت‌های فناوری قرار نخواهد گرفت.

قرار گرفتن در فهرست «ریسک» باعث شده این شرکت آمریکایی در موقعیتی مشابه با شرکت مخابراتی چینی هواوی قرار گیرد که به دلایل متفاوتی در حوزه امنیت ملی در فهرست سیاه قرار گرفته بود.

شرکت اوپن‌ای‌آی اعلام کرده که با موضع آنتروپیک موافق است، اما در عین حال قرارداد جداگانه‌ای با دولت آمریکا امضا کرده که به گفته این شرکت هنوز اجرایی نشده است.

دستیار هوش مصنوعی آنتروپیک، موسوم به «کلود»، هنوز از رده خارج نشده است. این ابزار هم‌اکنون در سامانه‌های شرکت پالانتیر تعبیه شده و آمریکا آن را در جنگ با ایران به کار گرفته است.
+5
رأی دهید
-1

  • قدیمی ترین ها
  • جدیدترین ها
  • بهترین ها
  • بدترین ها
  • دیدگاه خوانندگان
    ۴۶
    دو کلمه حرف حساب - حصارک، ایران
    ساعت ۱۱٫۵۵ است. قبل از این هرومزاده ها دست به تولید و بکار بردن سلاح های شیمیایی توسط پهباد ها بکنند باید نابود بشوند. مردم با تمام قدرت آمده بشوید. لوازم دفع در مقابل مواد شیمیایی تهیه کنید.
    1
    5
    یکشنبه ۰۲ فروردین ۱۴۰۵ - ۰۸:۳۲
    پاسخ شما چیست؟
    0%
    ارسال پاسخ
    نظر شما چیست؟
    جهت درج دیدگاه خود می بایست در سایت عضو شده و لوگین نمایید.