لاس وگاس میزبان همایش «دف کان ۳۱» است؛ بزرگترین کنفرانس هکرها در جهانبی بی سی: چه میشود اگر هزاران هکر در یک شهر جمع شوند، تنها با این هدف که هوش مصنوعی را فریب دهند و نقاط ضعف آن را پیدا کنند؟ این سوالی است که کاخ سفید به دنبال جواب آن است.
سی و یکمین دوره «دِف کان»، بزرگترین گردهمآیی سالانه هکرها، در شهر لاس وگاس در حال برگزاری است و برای اولین بار شرکتهای بزرگ فناوری، سیستمهای قدرتمند خود را در معرض آزمایش قرار میدهند.
در این میان مدلهای زبانی بزرگ و چتباتها یا باتهای مکالمه مشهوری مانند اوپنایآی چتجیتیپی و بارد گوگل در مرکز توجه هستند.
دکتر رامن چودری، مدیر عامل شرکت «هوش بشری» و پژوهشگر «هوش مصنوعی مسئولیتپذیر» در هاروارد یکی از برگزارکنندگان این همایش است.
خانم چودری به بیبیسی گفت که آنها مسابقهای برای «تشخیص مشکلات سیستمهای هوش مصنوعی» و «ارزیابی مستقل» آنها طراحی کردهاند.
او میگوید این رویداد فضای امنی را برای شرکتهای بزرگ ایجاد میکند تا درباره مشکلات خود و شیوه حل و فصل آن صحبت کنند.
در این اجلاس از شرکتهای متا، گوگل، اوپنایآی، انتروپیک، کوهیر، انویدیا و استبیلیتی دعوت شده تا مدلهای خود را در معرض هک شدن قرار دهند تا نقایص این سیستمها شناسایی شود.
به گفته دکتر چودری شرکتها میدانند که در جریان کار ممکن است اشتباهات زیادی رخ دهد و این مسابقه راهی است برای دریافتن این که اگر گروهی از هکرهای مصمم در برابر مدلهای زبانی این شرکتها قرار بگیرند، چه اتفاقی ممکن است بیفتد. مسابقه چگونه برگزار میشود؟ برگزارکنندگان برآورد میکنند که طی دو روز و نیم، سههزار نفر -هر کدام به تنهایی و در بازه زمانی ۵۰ دقیقهای که به آنها داده میشود- روی یکی از ۱۵۸ لپتاپی که آنجاست کار میکنند تا بتوانند نقاط ضعف هشت مدل زبانی بزرگ را پیدا کنند.
شرکتکنندگان در حین مسابقه نمیدانند که دارند با مدل زبانی کدام شرکت کار میکنند، هر چند که کارآزمودهها ممکن است بتوانند حدس بزنند که با چه سیستمی طرف هستند. پیدا کردن موفقیتآمیز هر نقطه ضعفی در سیستم امتیاز دارد و کسی که بیشترین امتیاز را بگیرد برنده مسابقه خواهد شد.
جایزه این رقابت یک کیت قدرتمند کامپیوتری و یک واحد پردازنده گرافیکی است. اما شاید از آن مهمتر به گفته دکتر چودری، «حق کل کل و خودنمایی» برای برندگان است.
در یکی از مراحل مسابقه از هکرها میخواهند کاری کنند که مدل زبانی درباره یک سیاستمدار یا یک شخصیت مهم دچار توهم و تصور نادرست شود یا از خود اطلاعاتی درباره آن شخص بسازد که واقعیت ندارد. دکتر رامن چودری یکی از برگزارکنندگان مسابقه هوش مصنوعی استدکتر سرافینا گلدفرب-تارنت، رئیس ایمنی هوش مصنوعی در شرکت «کوهیر» میگوید هر چند این موضوع روشن است که مدلهای زبانی قادر به تولید اطلاعات مندرآوردی هستند، اما مشخص نیست که این اتفاق تا چه حد رخ میدهد و میزان تکرار آن چقدر است.
او میگوید «ما میدانیم که مدلها دچار توهم اطلاعاتی میشوند، اما مفید خواهد بود اگر بتوانیم آگاهیمان را درباره این که این اتفاق چقدر تکرار میشود، بالا ببریم. هنوز درباره این موضوع اطلاع زیادی نداریم.»
پایداری و پیوستگی مدلها هم قرار است آزمایش شود. به گفته دکتر گلدفرب-تارنت «نگرانیهایی درباره این موضوع وجود دارد که مدلها در برخورد با زبانهای مختلف چگونه کار میکنند». جو بایدن، رئیس جمهور آمریکا در کاخ سفید در شهر واشنگتن، درباره هوش مصنوعی صحبت میکندبرای مثال او میگوید اگر از انواع مدلهای بزرگ زبانی، به انگلیسی بپرسید که چطور میتوان عضو یک سازمان تروریستی شد، آنها پاسخی به شما نخواهند داد، چون یک نوع مکانیسم ایمنی در آنها فعال میشود. اما ممکن است همین سوال را به زبان دیگری از همان مدل بپرسید و او لیستی از گامهای لازم را به شما پیشنهاد کند.
دکتر گلدفرپ-تارنت که آماده کردن مدلهای زبانی شرکت کوهیر برای این رویداد را برعهده داشته، میگوید با وجود توان و قدرتی که این مدلها دارند، اما «لزوما این طور نیست که مدلهای ما آسیبپذیر نباشند، بلکه ما هنوز این نقاط ضعف را پیدا نکردهایم.» مشکلات کنونی این گردهمآیی با حمایت کاخ سفید برگزار میشود. دولت آمریکا این موضوع را حدود سه ماه پیش اعلام کرد و گفت که «اطلاعات حیاتی درباره تاثیرات این مدلها را به پژوهشگران و عموم مردم اعلام خواهد کرد و این امکان را برای شرکتهای هوش مصنوعی و برنامهنویسان فراهم خواهد کرد که گامهای لازم را برای برطرف کردن نقاط ضعفی که در مدلهای زبانی آنها پیدا میشود، بردارند.»
سرعت و شتاب شرکتها در ساخت این برنامهها و مدلها تا حدی بوده که باعث نگرانی از انتشار و گسترش اطلاعات جعلی، به خصوص پیش از انتخابات ریاست جمهوری سال آینده در آمریکا شده است. ماه گذشته میلادی هفت شرکت بزرگ هوش مصنوعی به صورت داوطلبانه پایبندی خود را به مجموعهای از تدابیر ایمنی اعلام کردند که قرار است میزان ریسک و تهدید فناوریهای پیشرفته را کاهش دهد. با وجود این توافق بر سر پادمانهای قانونی و حقوقی به زمان بیشتری نیاز دارد.
دکتر چاودری میگوید «رقابت در شاخه قانونگذاری همین الان هم در جریان است»، و این رویداد، بیش از آن که تهدیدهای وجودی را پوشش دهد، راهی است برای پررنگ کردن مشکلات کنونی هوش مصنوعی.
او میگوید موضوع این گردهمآیی این نیست که آیا سیستمهای هوش مصنوعی میتوانند یک سلاح هستهای را منفجر کند یا نه، بلکه این است که «آیا در خود آنها آسیب یا انحراف و جهتگیری وجود دارد یا نه».
«مثلا میخواهیم بفهمیم که آیا آنها به ما دروغ میگویند، از خودشان پایتخت جعلی برای یک کشور میسازند، درباره صلاحیت پزشکی و درمانی خودشان دروغ میگویند یا مثلا ممکن است اطلاعاتی درباره سیاست به ما بدهند که کاملا جعلی باشد.»
خواسته دکتر گلدفرب تارنت این است که تمرکز گردهمآیی روی وضع مقرراتی باشد که بتواند مشکلات جاری را از میان بردارد. او از دولتها میخواهد برای قانونگذاری در موضوع هوش مصنوعی وقت بگذارند تا جلو انتشار اخبار جعلی و اطلاعات غلط گرفته شود. چه اتفاقی خواهد افتاد؟ دکتر چودری میخواهد بداند «چه اتفاقی میافتد اگر ما نقاط ضعفی را در این مدلهای زبانی پیدا کنیم، واکنش شرکتهای فناوری چه خواهد بود؟»
«اگر ما نتوانیم مدلهای ساده یادگیری ماشینی هوش مصنوعی را بدون جهتگیری یا تبعیض بسازیم، در آینده نخواهیم توانست مدلهای پیچیده هوش مصنوعی مولد را بدون وجود چنین مشکلاتی در اختیار داشته باشیم.»
وقتی که مسابقه پیدا کردن نقطه ضعفها به پایان برسد، شرکتهای به اطلاعات جمعآوریشده دسترسی پیدا میکنند و امکان واکنش به نقایصی را خواهند داشت که در جریان این رقابتها پیدا شده است.
پژوهشگران مستقل هم میتوانند برای دسترسی به این دادهها درخواست بدهند و قرار است که نتیجه این رقابتها فوریه سال آینده میلادی منتشر شود.
+1
رأی دهید
-0
نظر شما چیست؟
جهت درج دیدگاه خود می بایست در سایت عضو شده و لوگین نمایید.