کد خبر : ۷۵,۴۲۷
۲۸ آبان ۱۴۰۳ ۰۹:۱۲
ایزاک آسیموف(Isaac Asimov)، نویسنده داستان‌های علمی و تخیلی سه قانون رباتیک را مطرح می‌کند که شما هرگز آنها را از روی رفتارهای ربات‌های امروزی یا سازندگان آنها متوجه نخواهید شد.
قانون اول این است که «ربات‌ ممکن است به انسان آسیب نرساند یا از طریق بی‌عملی باعث شود که انسان آسیب ببیند»، اگرچه این قابل ستایش است، اما از ۷۷ تصادف‌ مرتبط با ربات بین سال‌های ۲۰۱۵ تا ۲۰۲۲ جلوگیری نکرده است که بسیاری از آنها منجر به قطع انگشت و شکستگی سر و بدن شده‌اند. همچنین از مرگ و میر ناشی از خودران شدن خودروها و تاکسی‌های رباتیک نیز جلوگیری نکرده است.
 
به نقل از رجیستر، قانون دوم، این است که «ربات باید از دستوراتی که توسط انسان‌ها داده می‌شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد» که این به نظر مشکل‌سازتر می‌رسد. تنها نظامیان در سراسر جهان نیستند که علاقه زیادی به ربات‌هایی دارند که قادر به نقض قانون اول هستند. قانون دوم خیلی مبهم است و نمی‌تواند بین درخواست‌های مجاز و غیرمجاز تمایز قائل شود.
 
به نظر می‌رسد که اگر ربات‌های خود را با ریاضیات بُرداری پر کنید که به طور تعبیری هوش مصنوعی نامیده می‌شود، درخواست‌های غیرمجاز یک مشکل واقعی ایجاد می‌کنند. قانون سومی نیز وجود دارد که ما نگران آن نیستیم: ربات باید از وجود خود محافظت کند تا زمانی که چنین محافظتی با قانون اول یا دوم در تضاد نباشد.
 
اشتیاق جدید به مدل‌های زبانی بزرگ، ناگزیر منجر به این شده است که ربات‌سازان این مدل‌های زبانی بزرگ را به ربات‌ها بیافزایند، تا آنها بتوانند به دستورالعمل‌های گفتاری یا نوشتاری پاسخ دهند. برای مثال، سازنده ربات بوستون داینامیکس(Boston Dynamics)، ربات اسپات(Spot) خود را با چت جی‌پی‌تی(ChatGPT) ادغام کرده است.
 
از آنجایی که مدل‌های زبانی بزرگ به طور گسترده‌ای در برابر قفل شکنی آسیب‌پذیر شناخته شده‌اند، اینکه ربات‌هایی که توسط مدل‌های‌ زبانی کنترل می‌شوند نیز ممکن است در برابر قفل شکنی آسیب‌پذیر باشند، دور از تصور نیست. قفل شکنی به فرآیندی گفته می‌شود که در آن اعلان‌های با دقت ساخته شده، یک مدل و برنامه‌ی متصل به آن را فریب می‌دهند تا برخلاف میل سازندگانشان عمل کند.
 
مدل‌های زبانی بزرگ با آموزش دیدن بر روی مقادیر انبوه داده ساخته می‌شوند و از آنها برای پیش‌بینی در پاسخ به یک پیام متنی یا تصاویر یا صدا برای مدل‌های چندوجهی استفاده می‌کنند. از آنجایی که محتوای ناخوشایند زیادی در مجموعه‌های آموزشی وجود دارد، مدل‌های آموزش‌دیده بر روی این داده‌ها به‌گونه‌ای تنظیم می‌شوند که آنها را از انتشار محتوای مضر در صورت تقاضا بازدارد. در حالت ایده‌آل، مدل‌های زبانی بزرگ قرار است برای به حداقل رساندن آسیب‌های احتمالی «هم تراز» شوند. آنها ممکن است در مورد شیمی عوامل عصبی بدانند اما قرار نیست آن را مطرح کنند.
 
اما با تلاش کافی می‌توان این مکانیسم‌های ایمنی را دور زد، فرآیندی که گفتیم به نام قفل شکنی شناخته می‌شود. کسانی که کار آکادمیک روی مدل‌های هوش مصنوعی انجام می‌دهند اذعان دارند که هیچ مدل زبانی از حملات قفل شکنی کاملا در امان نیست.
 
بدیهی است که هیچ رباتی که از یک مدل زبانی دستور می‌گیرد نیز وجود ندارد که در برابر قفل شکنی مقاوم باشد. محققان دانشگاه پنسیلوانیا الگوریتمی به نام RoboPAIR برای قفل شکنی ربات‌های تحت کنترل‌ مدل‌های زبانی بزرگ ابداع کرده‌اند.
 
ممکن است بپرسید، چرا کسی باید یک ربات را به یک مدل زبانی بزرگ متصل کند، با توجه به اینکه مدل‌ها بسیار ناامن و خطاپذیر هستند؟
 
این سوال خوبی است اما پاسخی برای آن وجود ندارد. در حال حاضر باید بپذیریم که ربات‌ها به مدل‌های زبانی مجهز می‌شوند.
 
الکساندر روبی(Alexander Robey)، زاخاری راویچندران (Zachary Ravichandran)، ویجی کومار (Vijay Kumar)، حامد حسنی و جورج پاپاسT محققان دانشگاه پنسیلوانیا تصمیم گرفتند تا ببینند آیا ربات‌هایی که دارای مغز مجهز به مدل زبانی بزرگ هستند را می‌توان متقاعد کرد که از دستوراتی که نباید، پیروی کنند یا خیر.
 
معلوم شد که می‌توان این کار را کرد. آنها در مقاله خود توضیح می‌دهند: نتایج ما برای اولین بار نشان می‌دهد که خطرات مدل‌های زبانی بزرگ که دچار قفل شکنی شده‌اند بسیار فراتر از تولید متن است، با توجه به این احتمال که چنین ربات‌هایی می‌توانند در دنیای واقعی آسیب فیزیکی ایجاد کنند. در واقع، نتایج ما نشان دهنده اولین قفل شکنی موفقیت آمیز یک سیستم رباتیک تجاری موجود است.
 
بنابراین به نظر می‌رسد که متصل کردن هوش مصنوعی و مدل‌های زبانی بزرگ به ربات‌ها برای کنترل آنها اگر در مسیر اشتباهی قرار گیرد می‌تواند برای انسان‌ها فاجعه‌بار باشد.
 
انتهای پیام
 

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید