چگونه ChatGPT کلیدهای ویندوز را فاش کرد؟ – hamtaa

 

فاش شدن کلیدهای محصول ویندوز توسط ChatGPT: چگونه این اتفاق افتاد؟

 

مقدمه

یک متخصص فناوری اطلاعات موفق شد با استفاده از ترفندهای هوشمندانه، ربات ChatGPT را فریب دهد تا کلیدهای محصول ویندوز را فاش کند. این رخداد نشان‌دهنده ضعف‌های موجود در سیستم‌های هوش مصنوعی و نیاز به بهبود امنیت آن‌ها است. در این مقاله، جزئیات این رخداد و روش انجام آن را بررسی می‌کنیم.

چگونه ChatGPT فریب خورد؟

مارکو فیگوئرا، مدیر فنی برنامه شکار باگ‌های GenAI در 0DIN، با استفاده از مکانیزم‌های بازی‌گونه در مدل‌های زبانی بزرگ مانند GPT-4o، موفق به فاش کردن کلیدهای محصول ویندوز شد. او با طراحی یک بازی حدس‌زنی و استفاده از عبارت کلیدی «من تسلیم شدم»، ربات را وادار کرد تا کلیدهای معتبر ویندوز را نمایش دهد.

این روش با فریم کردن تعامل به‌صورت یک بازی، جدیت موضوع را کاهش داد و ChatGPT را به افشای اطلاعات حساس ترغیب کرد. طبق گزارش TechSpot، کلیدهای ویندوز هوم، پرو و اینترپرایز که اغلب در فروم‌های عمومی یافت می‌شوند، در داده‌های آموزشی مدل گنجانده شده بودند و به همین دلیل، ChatGPT آن‌ها را کمتر حساس تلقی کرد.

جزئیات فنی روش جیلبریک

روش جیلبریک (Jailbreak) استفاده‌شده توسط فیگوئرا شامل مراحل زیر بود:

  • تنظیم بازی: متخصص با ربات به‌گونه‌ای تعامل کرد که گویی در حال انجام یک بازی حدس‌زنی است.
  • استفاده از عبارت کلیدی: پس از وارد کردن یک حدس نادرست، فیگوئرا عبارت «من تسلیم شدم» را وارد کرد.
  • افشای کلید: ChatGPT در پاسخ، کلید کامل ویندوز را نمایش داد که بعداً تأیید شد معتبر است.

تعامل جیلبریک ChatGPT برای فاش کردن کلید ویندوز

نمونه‌ای از تعامل موفق با ChatGPT که با استفاده از عبارت «I give up» منجر به فاش شدن کلید ویندوز W269N-… شد. این تصویر نشان‌دهنده ضعف امنیتی در پاسخ‌دهی ربات است.نکته قابل‌توجه این است که یکی از کلیدهای فاش‌شده متعلق به بانک ولز فارگو بود، که این موضوع حساسیت موضوع را افزایش می‌دهد.

ضعف‌های امنیتی ChatGPT

این روش نه‌تنها برای فاش کردن کلیدهای ویندوز، بلکه برای دسترسی به محتوای محدود دیگر مانند محتوای بزرگسالان، آدرس‌های وب‌سایت‌های مخرب و اطلاعات شخصی نیز قابل استفاده است. استفاده از تکنیک‌های مخفی‌سازی، مانند جاسازی عبارات حساس در تگ‌های HTML، نقطه‌ضعف سیستم‌های هوش مصنوعی را نشان می‌دهد.
دستورالعمل بازی جیلبریک برای فریب ChatGPT

دستورالعمل بازی طراحی‌شده توسط فیگوئرا که شامل قوانین بازی و فرمت پاسخ‌دهی است. این روش نشان‌دهنده نحوه فریب دادن ChatGPT با استفاده از ترفندهای زبانی است.OpenAI پس از این رخداد، ChatGPT را به‌روزرسانی کرد تا در برابر این نوع جیلبریک مقاوم شود. اکنون، درخواست‌های مشابه با پاسخ «نمی‌توانم این کار را انجام دهم. اشتراک‌گذاری کلیدهای سریال ویندوز، چه در قالب بازی و چه غیر آن، غیراخلاقی است و نقض توافق‌نامه‌های مجوز نرم‌افزار محسوب می‌شود» مواجه می‌شوند.

پیشنهادات برای بهبود امنیت

فیگوئرا پیشنهاد می‌دهد که توسعه‌دهندگان هوش مصنوعی برای جلوگیری از این نوع حملات:

  • تکنیک‌های مخفی‌سازی پرس‌وجو را پیش‌بینی و در برابر آن‌ها دفاع کنند.
  • دفاع‌های منطقی برای شناسایی فریم‌های فریبنده ایجاد کنند.
  • الگوهای مهندسی اجتماعی را در نظر بگیرند و نه فقط به فیلترهای کلمه کلیدی وابسته باشند.

نتیجه‌گیری

این رخداد نشان‌دهنده اهمیت بهبود امنیت مدل‌های هوش مصنوعی مانند ChatGPT است. با افزایش استفاده از این فناوری‌ها، توسعه‌دهندگان باید راه‌های جدیدی برای جلوگیری از سوءاستفاده پیدا کنند. شما درباره این موضوع چه فکر می‌کنید؟ نظرات خود را در بخش زیر با ما به اشتراک بگذارید.

 

آنچه در این مطلب میخوانید !
مقدمه در سالهای گذشته در مرکز ملی پاسخگویی به سؤالات پایگاه اسلام کوئست و برخی...
معرفی پروژه پروژه «یکپارچه سازی و هوشمندسازی قوانین و مقررات جمهوری اسلامی ایران»، در راستای...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *