تکنولوژی

هوش مصنوعی “توهمات” یک تهدید فزاینده برای امنیت شرکت ها است

محققان یک شرکت امنیتی اسرائیلی روز سه شنبه فاش کردند که چگونه هکرها می توانند “توهمات” مولد هوش مصنوعی را به یک کابوس برای زنجیره تامین نرم افزار یک سازمان تبدیل کنند.

در یک پست وبلاگ در وب سایت Vulcan Cyber، محققان Bar Laniado، Ortel Keizman و Yair Divinsky نشان دادند که چگونه می توان از اطلاعات نادرست تولید شده توسط ChatGPT در مورد بسته های نرم افزار منبع باز برای ارائه کدهای مخرب به محیط توسعه استفاده کرد.

آنها توضیح دادند که ChatGPT را دیده اند که URL ها، مراجع، و حتی کتابخانه های کد و توابعی تولید می کند که در واقع وجود ندارند.

آنها خاطرنشان کردند که اگر ChatGPT کتابخانه ها یا بسته های کدی را ساخته باشد، مهاجمان می توانند از این توهمات برای توزیع بسته های مخرب بدون استفاده از تکنیک های مشکوک و از قبل قابل تشخیص مانند تایپوسکوت یا پنهان سازی استفاده کنند.

محققان ادامه دادند که اگر یک هکر بتواند بسته‌ای را برای جایگزینی بسته‌های «جعلی» توصیه‌شده توسط ChatGPT ایجاد کند، ممکن است بتوانند قربانی را برای دانلود و استفاده از آن وادار کنند.

آنها استدلال می کنند که احتمال وقوع این سناریو در حال افزایش است، زیرا توسعه دهندگان بیشتر و بیشتر از دامنه های سنتی برای جستجوی آنلاین راه حل های کد مانند Stack Overflow به راه حل های AI مانند ChatGPT مهاجرت می کنند.

در حال حاضر بسته های مخرب تولید می کند

دانیل کندی، مدیر تحقیقات امنیت اطلاعات و شبکه‌ها در 451 Research که بخشی از S&P Global است، توضیح داد: نویسندگان پیش‌بینی می‌کنند که با محبوب‌تر شدن هوش مصنوعی مولد، شروع به دریافت سؤال‌هایی از توسعه‌دهندگان خواهد کرد که زمانی به Stack Overflow می‌رفتند. Market Intelligence، یک شرکت تحقیقاتی بازار جهانی.

مطلب پیشنهادی:  آموزش صفر تا صد طراحی سایت با وردپرس رایگان

او به دیجیتال تو گفت: «پاسخ به این سؤالات ایجاد شده توسط هوش مصنوعی ممکن است درست نباشد یا ممکن است به بسته‌هایی اشاره داشته باشد که دیگر وجود نداشته یا هرگز وجود نداشته‌اند». یک ناظر بد که می تواند یک بسته کد با آن نام ایجاد کند تا کدهای مخرب را شامل شود و به طور مداوم آن را از ابزار هوش مصنوعی مولد به توسعه دهندگان توصیه کند.

او افزود: «محققان Vulcan با اولویت‌بندی سؤالات متداول در Stack Overflow به عنوان سؤالاتی که از هوش مصنوعی می‌پرسیدند، قدمی فراتر گذاشتند و دیدند که بسته‌هایی که وجود نداشتند در کجا توصیه می‌شوند.»


به گفته محققان، آنها از Stack Overflow برای دریافت متداول ترین سوالات برای بیش از 40 موضوع سوال کردند و از 100 سوال برتر برای هر موضوع استفاده کردند.

سپس از طریق API آن، ChatGPT همه سؤالاتی را که جمع آوری کرده بودند پرسیدند. آنها از API برای تکرار رویکرد مهاجم برای دریافت هرچه بیشتر توصیه‌ها برای بسته‌های موجود در کمترین زمان استفاده کردند.

در هر پاسخ، آنها به دنبال الگویی در دستور نصب بسته می گشتند و بسته پیشنهادی را بازیابی می کردند. سپس بررسی کردند که آیا بسته پیشنهادی وجود دارد یا خیر. اگر نه، خودشان سعی کردند آن را منتشر کنند.

نرم افزار Kludging

Henrik Plait، محقق امنیتی در آزمایشگاه‌های Endor، یک شرکت مدیریت وابستگی در پالو آلتو، کالیفرنیا، خاطرنشان کرد: بسته‌های مخرب تولید شده با کد ChatGPT قبلاً در نصب‌کننده‌های بسته PyPI و npm مشاهده شده‌اند.

او همچنین می‌گوید: «الگوهای بزرگ زبان همچنین می‌توانند از مهاجمان در ایجاد انواع بدافزارهایی که منطق یکسانی دارند اما شکل و ساختار متفاوتی دارند، برای مثال با پخش کدهای مخرب در عملکردهای مختلف، تغییر شناسه‌ها، ایجاد نظرات جعلی و کد مرده یا تکنیک‌های مشابه، پشتیبانی کنند.» به دیجیتال تو گفت.

مطلب پیشنهادی:  برخورد CME به زمین، ایجاد طوفان ژئومغناطیسی وحشتناک G4! شفق قطبی را می توان در سراسر جهان دید

ایرا وینکلر، مدیر ارشد امنیت اطلاعات در CYE، ارائه‌دهنده جهانی فناوری‌های امنیتی نرم‌افزار خودکار، خاطرنشان کرد: مشکل امروز نرم‌افزار این است که خود نوشته نمی‌شود.

او به دیجیتال تو گفت: «این اساساً از نرم‌افزارهای زیادی که از قبل وجود دارد جمع‌آوری شده است. “این بسیار کارآمد است، بنابراین توسعه دهنده مجبور نیست یک تابع عمومی را از ابتدا بنویسد.”

با این حال، این می تواند منجر به وارد کردن کد توسط توسعه دهندگان بدون بررسی صحیح شود.

یوسف هاروش، رئیس امنیت زنجیره تامین نرم‌افزار در Checkmarx، یک شرکت امنیتی برنامه در تل‌آویو، اسرائیل، گفت: «به کاربران ChatGPT دستور داده می‌شود بسته‌های نرم‌افزاری منبع باز را نصب کنند که می‌توانند بسته‌های مخرب را نصب کنند در حالی که فکر می‌کنند قانونی است.

او به دیجیتال تو گفت: «به طور کلی، فرهنگ اجرای کپی پیست خطرناک است. همانطور که تیم تحقیقاتی Vulcan نشان داد، انجام این کار کورکورانه از منابعی مانند ChatGPT می تواند منجر به حملات زنجیره تامین شود.

منابع کد خود را بشناسید

ملیسا بیشاپینگ، مدیر تحقیقات امنیت نقطه پایانی در Tanium، ارائه‌دهنده مدیریت همگرای نقطه پایانی مستقر در کرکلند در واشنگتن، همچنین نسبت به استفاده آزاد از کد شخص ثالث هشدار داد.

او به دیجیتال تو گفت: «شما هرگز نباید کدی را که نمی‌فهمید و آزمایش نکرده‌اید، فقط با گرفتن آن از یک منبع دلخواه دانلود و اجرا کنید.

او توصیه کرد: “هر کدی که قصد اجرای آن را دارید باید از نظر امنیتی ارزیابی شود و باید کپی های شخصی آن را داشته باشید.” “مستقیماً از مخازن عمومی مانند مخازن مورد استفاده در حمله Vulcan وارد نکنید.”


او افزود که حمله به زنجیره تامین از طریق کتابخانه های شخص ثالث مشترک یا وارداتی جدید نیست.

مطلب پیشنهادی:  اپل حمله کی پاپ را در خانه سامسونگ کره راه اندازی کرد

او هشدار داد: «استفاده از این استراتژی ادامه خواهد داشت، و بهترین دفاع استفاده از شیوه‌های کدگذاری ایمن و آزمایش و بازبینی دقیق کد – به‌ویژه کد توسعه‌یافته توسط شخص ثالث – برای استفاده در محیط‌های تولید است.»

او هشدار داد: کورکورانه به هر کتابخانه یا بسته ای که در اینترنت یا در چت هوش مصنوعی می یابید اعتماد نکنید.

دان لورنز، مدیر عامل و یکی از بنیانگذاران Chaingard، سازنده راه حل های امنیتی زنجیره تامین نرم افزار مستقر در سیاتل، اضافه کرد که منشأ کد خود را بدانید.

او به دیجیتال تو گفت: «اصالت توسعه‌دهنده، تأیید شده از طریق تعهدات و بسته‌های امضا شده، و دریافت مصنوعات منبع باز از منبع یا فروشنده‌ای که می‌توانید به آن اعتماد کنید، تنها مکانیسم‌های واقعی درازمدت برای جلوگیری از این حملات به سبک Sybil علیه منبع باز هستند».

دوره های اولیه

Bud Broomhead، مدیر عامل Viakoo، توسعه‌دهنده نرم‌افزارهای امنیت فیزیکی و سایبری در Mountain View، کالیفرنیا، خاطرنشان کرد: اما احراز هویت کد همیشه آسان نیست.

او به دیجیتال تو گفت: «بسیاری از انواع دارایی‌های دیجیتال – و به‌ویژه دستگاه‌های IoT/OT – هنوز فاقد امضای دیجیتال یا سایر اشکال اعتماد در میان‌افزاری هستند که بهره‌برداری را ممکن می‌سازد.

ما در ابتدای راه هستیم که از هوش مصنوعی مولد برای حمله سایبری و دفاع استفاده می شود. به Vulcan و سایر سازمان‌هایی که به موقع تهدیدات جدید را شناسایی و هشدار می‌دهند تا مدل‌های یادگیری زبان برای جلوگیری از این نوع سوءاستفاده تنظیم شود، اعتبار می‌کنیم.»

او ادامه داد: «به یاد داشته باشید، فقط چند ماه پیش می‌توانستم از Chat GPT بخواهم بدافزار جدیدی ایجاد کند، و این کار را کرد. اکنون برای ایجاد ناخواسته آن به راهنمایی بسیار خاص و هدفمند نیاز است. و امیدواریم که حتی این رویکرد نیز به زودی توسط موتورهای هوش مصنوعی خنثی شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا