کامپیوتر

ChatGPT به تازگی بدافزار ایجاد کرده است و به طور جدی ترسناک است


گزارش شده است که یک مبتدی خودخوانده بدافزار داده کاوی قدرتمندی را تنها با استفاده از دستورات ChatGPT ایجاد کرده است، همه اینها در عرض چند ساعت.

Aaron Mulgrew، محقق امنیتی در Forcepoint، اخیرا نحوه ایجاد بدافزار روز صفر را به طور انحصاری در چت ربات مولد OpenAI به اشتراک گذاشته است. در حالی که OpenAI در برابر هر کسی که سعی می‌کند از ChatGPT بخواهد کد مخرب بنویسد، محافظت می‌کند، Mulgrew با درخواست از ربات چت برای ایجاد خطوط جداگانه کدهای مخرب، عملکرد به تابع، حفره‌ای پیدا کرد.

پس از کامپایل کردن توابع فردی، مولگرو یک فایل اجرایی سرقت اطلاعات تقریباً غیرقابل کشف روی دستان خود ایجاد کرده بود. و این بدافزار از نوع باغ شما نیز نبود – بدافزار به همان اندازه پیشرفته بود که هر حمله دولت ملی، قادر به فرار از همه ارائه دهندگان مبتنی بر شناسایی بود.

به همان اندازه مهم این است که چگونه بدافزار Mulgrew از تکرارهای “معمول” دولت-ملت منحرف می شود، زیرا نیازی به تیم هایی از هکرها (و کسری از زمان و منابع) برای ساخت ندارد. مولگرو که خودش هیچ کدنویسی را انجام نمی‌داد، بر خلاف هفته‌هایی که معمولاً نیاز بود، فایل اجرایی را فقط در چند ساعت آماده کرد.

بدافزار Mulgrew (به نظر خوب می رسد، اینطور نیست؟) خود را به عنوان یک برنامه محافظ صفحه نمایش (پسوند SCR) پنهان می کند که سپس به طور خودکار در ویندوز راه اندازی می شود. سپس نرم افزار فایل ها (مانند تصاویر، اسناد Word و PDF) را برای سرقت داده ها بررسی می کند. بخش قابل توجه این است که بدافزار (از طریق استگانوگرافی) داده های دزدیده شده را به قطعات کوچکتر تقسیم می کند و آنها را در تصاویر رایانه پنهان می کند. این تصاویر سپس در یک پوشه Google Drive آپلود می شوند، روشی که از شناسایی جلوگیری می کند.

مطلب پیشنهادی:  لپ تاپ HP Pavilion امروز فقط 660 دلار قیمت دارد

به همان اندازه چشمگیر این است که Mulgrew توانست کد خود را در برابر تشخیص با استفاده از دستورات ساده ChatGPT اصلاح و سخت کند، که واقعاً این سوال را ایجاد می کند که استفاده از ChatGPT چقدر ایمن است. در اجرای آزمایش‌های اولیه روی VirusTotal، این بدافزار توسط پنج محصول از 69 محصول شناسایی شناسایی شد. نسخه بعدی کد آن متعاقباً توسط هیچ یک از محصولات شناسایی نشد.

توجه داشته باشید که بدافزار ایجاد شده توسط Mulgrew یک آزمایش است و برای عموم در دسترس نیست. با این وجود، تحقیقات او نشان داد که کاربران با تجربه کم یا بدون تجربه کدنویسی به راحتی می توانند دفاع ضعیف ChatGPT را دور بزنند تا به راحتی بدافزار خطرناک را حتی بدون تایپ یک خط کد ایجاد کنند.

اما بخش ترسناک در مورد همه اینها اینجاست: این نوع کد معمولا هفته ها طول می کشد تا تیم بزرگ تری کامپایل شود. تعجب نخواهیم کرد اگر هکرهای مخرب در حال حاضر بدافزار مشابهی را از طریق ChatGPT توسعه دهند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا