آیا ChatGPT یک فاجعه امنیت سایبری است؟ از کارشناسان پرسیدیم
ChatGPT در حال حاضر کاملاً اجتناب ناپذیر به نظر می رسد، با داستان هایی که ظاهراً به هر کجا که نگاه می کنید از قابلیت های آن شگفت زده می شوند. دیدیم که چگونه می تواند موسیقی بنویسد، انیمیشن های سه بعدی بسازد و موسیقی بسازد. اگر می توانید به آن فکر کنید، ChatGPT احتمالا می تواند امتحان کند.
و مشکل دقیقا همینه در حال حاضر انواع و اقسام اختلافات در جامعه فناوری وجود دارد، مفسران اغلب نگران این هستند که هوش مصنوعی به آخرالزمان بدافزار منجر شود، حتی سبزترین هکرها تروجان ها و باج افزارهای غیرقابل توقف را ایجاد می کنند.
اما آیا این واقعا درست است؟ برای فهمیدن این موضوع، با تعدادی از کارشناسان امنیت سایبری صحبت کردم تا ببینم آنها از قابلیت های بدافزار ChatGPT چه می گویند، آیا نگران پتانسیل سوء استفاده از آن هستند، و چه کاری می توانید برای محافظت از خود در این دنیای جدید در حال ظهور انجام دهید.
توانایی های مشکوک
یکی از جذابیت های اصلی ChatGPT توانایی آن در انجام کارهای پیچیده تنها با چند دستور ساده، به خصوص در دنیای برنامه نویسی است. ترس این است که این امر موانع ورود برای ایجاد بدافزار را کاهش دهد و به طور بالقوه گسترش ویروس نویسانی را که برای انجام کارهای سنگین به ابزارهای هوش مصنوعی متکی هستند، به خطر بیاندازد.
جاشوا لانگ، تحلیلگر امنیتی اصلی در شرکت امنیتی Intego، این نکته را نشان می دهد. او توضیح می دهد: «مانند هر ابزاری در دنیای فیزیکی یا مجازی، کدهای رایانه ای را می توان برای خیر یا شر استفاده کرد. برای مثال، اگر کدی بخواهید که بتواند فایلی را رمزگذاری کند، رباتی مانند ChatGPT نمی تواند هدف واقعی شما را درک کند. اگر ادعا می کنید که برای محافظت از فایل های خود به یک کد رمزگذاری نیاز دارید، ربات شما را باور خواهد کرد – حتی اگر هدف واقعی شما ایجاد باج افزار باشد.
ChatGPT برای مبارزه با چنین مواردی تدابیر حفاظتی مختلفی دارد و ترفند سازندگان ویروس دور زدن این پادمانها است. مستقیماً از ChatGPT بخواهید که یک ویروس مؤثر ایجاد کند و آن به سادگی امتناع میکند، و از شما میخواهد که برای پیشی گرفتن از آن نبوغ به دست آورید و آن را وادار کنید تا در برابر قضاوت بهترش، دستور شما را انجام دهد. با توجه به کارهایی که افراد می توانند با جیلبریک ChatGPT انجام دهند، توانایی ایجاد بدافزار با استفاده از هوش مصنوعی در تئوری ممکن به نظر می رسد. در واقع، قبلاً نشان داده شده است، بنابراین ما می دانیم که امکان پذیر است.
اما همه وحشت زده نیستند. مارتین زوگک، مدیر راه حل های فنی بیت دیفندر، معتقد است که خطرات هنوز نسبتاً کوچک هستند. او میگوید: «بعید است اکثر نویسندگان بدافزار مبتدی مهارتهای لازم برای دور زدن این اقدامات امنیتی را داشته باشند، و بنابراین خطر ناشی از بدافزار تولید شده توسط chatbot در حال حاضر نسبتاً کم است.
Zugec ادامه می دهد: «بدافزار تولید شده توسط چت بات اخیراً موضوع بحث محبوبی بوده است. به گفته Zugec، “کیفیت کد بدافزار تولید شده توسط رباتهای چت به طور کلی پایین است، و آن را برای بدافزارنویسان باتجربه که میتوانند نمونههای بهتری را در مخازن کدهای عمومی بیابند، گزینه جذاب کمتری باشد.”
بنابراین در حالی که استفاده از ChatGPT برای ایجاد کدهای مخرب مطمئناً امکان پذیر است، هر کسی که مهارت های لازم برای دستکاری یک ربات چت هوش مصنوعی را داشته باشد، احتمالاً تحت تأثیر کد بدی که ایجاد می کند، نخواهد بود.
اما همانطور که ممکن است حدس بزنید، هوش مصنوعی مولد تازه شروع شده است. و برای مدت طولانی، این بدان معناست که خطرات هک ناشی از ChatGPT هنوز مشخص نشده است.
لانگ با استفاده از مخفف الگوهای زبان بزرگی که ابزارهای هوش مصنوعی مانند ChatGPT از مخفف الگوهای زبانی بزرگ استفاده میکنند، میگوید: «این امکان وجود دارد که ظهور رباتهای هوش مصنوعی مبتنی بر LLM منجر به افزایش اندک تا متوسط بدافزارهای جدید یا بهبود قابلیتهای بدافزار و فرار آنتیویروس شود. برای ایجاد دانش خود استفاده کنند. با این حال، در این مرحله مشخص نیست که ابزارهایی مانند ChatGPT چه تأثیر مستقیمی بر تهدیدات بدافزارهای دنیای واقعی دارند یا خواهند داشت.
دوست ماهیگیر
اگر مهارتهای کدنویسی ChatGPT هنوز هم سطح نباشد، آیا میتواند از راههای دیگر، مانند نوشتن کمپینهای فیشینگ و مهندسی اجتماعی مؤثرتر، خطری ایجاد کند؟ در اینجا، تحلیلگران موافق هستند، پتانسیل بسیار بیشتری برای سوء استفاده وجود دارد.
برای بسیاری از شرکتها، یکی از عوامل حمله احتمالی، کارکنان شرکت هستند که میتوانند فریب داده شوند و یا دستکاری شوند تا به طور سهوی دسترسی را در جایی که نباید فراهم کنند. هکرها این را می دانند و بسیاری از حملات مهندسی اجتماعی با مشخصات بالا وجود داشته است که فاجعه آمیز بوده است. به عنوان مثال، گمان میرود که گروه لازاروس کره شمالی در سال 2014 نفوذ خود را به سیستمهای سونی – که منجر به درز فیلمهای منتشر نشده و اطلاعات شخصی شد – با ظاهر شدن به عنوان متخصص استخدام و داشتن یک کارمند سونی برای باز کردن یک پرونده آلوده آغاز کرده است.
این یکی از زمینه هایی است که ChatGPT می تواند به هکرها و فیشرها کمک زیادی کند تا کار خود را بهبود بخشند. برای مثال، اگر انگلیسی زبان مادری تهدید نیست، میتوانند از یک ربات چت هوش مصنوعی برای نوشتن یک ایمیل فیشینگ قانعکننده برای آنها استفاده کنند که برای هدف قرار دادن انگلیسیزبان طراحی شده است. یا می توان از آن برای ایجاد سریع تعداد زیادی پیام متقاعدکننده در زمان بسیار کمتری نسبت به تهدیدات انسانی برای انجام همان کار استفاده کرد.
وقتی ابزارهای هوش مصنوعی دیگر در ترکیب قرار می گیرند، اوضاع می تواند بدتر شود. همانطور که Karen Renaud، Merrill Warkentin و George Westerman در بررسی Sloan Management MIT فرض میکنند، یک کلاهبردار میتواند یک اسکریپت را با استفاده از ChatGPT تولید کند و آن را از طریق تلفن توسط یک صدای جعلی عمیق که جعل هویت یک مدیر شرکت است، بخواند. برای یک کارمند شرکتی که تماس را دریافت می کند، صدا مانند رئیس آنها به صدا در می آید – و عمل می کند. اگر این صدا از کارمند بخواهد که مبلغی را به یک حساب بانکی جدید واریز کند، ممکن است کارمند به دلیل احترامی که به رئیس خود میکند دچار این حیله شود.
همانطور که لانگ می گوید: «دیگر این کار را نکن [threat actors] آنها باید برای نوشتن یک ایمیل کلاهبرداری قانع کننده به مهارت های انگلیسی خود (اغلب ناقص) تکیه کنند. آنها حتی نباید جمله هوشمندانه خود را بیاورند و آن را از طریق Google Translate اجرا کنند. در عوض، ChatGPT – کاملاً از احتمال وجود اهداف مخرب در پشت درخواست آگاه نیست – با خوشحالی تمام متن ایمیل جعلی را به هر زبان دلخواه می نویسد.
و تنها چیزی که لازم است ChatGPT در واقع این کار را انجام دهد، چند دستور هوشمندانه است.
آیا ChatGPT می تواند امنیت سایبری شما را تقویت کند؟
با این حال، همه چیز بد نیست. همان ویژگی هایی که ChatGPT را به ابزاری جذاب برای عوامل تهدید تبدیل می کند – سرعت آن، توانایی آن در یافتن شکاف های کد – آن را به منبعی مفید برای محققان امنیت سایبری و شرکت های آنتی ویروس تبدیل می کند.
لانگ اشاره میکند که محققان در حال حاضر از چت رباتهای هوش مصنوعی برای یافتن آسیبپذیریهای هنوز کشف نشده («روز صفر») در کد استفاده میکنند، فقط با آپلود کد و درخواست از ChatGPT تا ببینند آیا میتواند نقاط ضعف احتمالی را تشخیص دهد. این بدان معناست که می توان از همان روشی که می تواند دفاع ها را تضعیف کند برای تقویت آنها استفاده کرد.
و در حالی که جذابیت اصلی ChatGPT برای بازیگران تهدید ممکن است در توانایی آن در نوشتن پیامهای فیشینگ قابل باور باشد، همین استعدادها میتوانند به شرکتها و مصرفکنندگان آموزش دهند که برای جلوگیری از کلاهبرداری خود به دنبال چه چیزی باشند. همچنین میتوان از آن برای مهندسی معکوس بدافزار استفاده کرد و به محققان و شرکتهای امنیتی کمک کرد تا اقدامات متقابل را به سرعت توسعه دهند.
در پایان روز، ChatGPT به خودی خود خوب یا بد نیست. همانطور که Zugec اشاره می کند، “این استدلال که هوش مصنوعی می تواند توسعه بدافزارها را تسهیل کند، می تواند برای هر پیشرفت تکنولوژیکی دیگری که به نفع توسعه دهندگان باشد، مانند نرم افزار منبع باز یا پلتفرم های به اشتراک گذاری کد اعمال شود.”
به عبارت دیگر، در حالی که پادمان ها همچنان در حال بهبود هستند، تهدیدی که حتی بهترین چت ربات های هوش مصنوعی ایجاد می کند، ممکن است هرگز به اندازه ای که اخیراً پیش بینی می شود خطرناک نشود.
چگونه از خود محافظت کنید
اگر نگران تهدیدات ناشی از چت ربات های هوش مصنوعی و بدافزارهایی هستید که می توانند ایجاد کنند، اقداماتی وجود دارد که می توانید برای محافظت از خود انجام دهید. Zugec می گوید که اتخاذ یک “رویکرد امنیتی چند لایه” که شامل “پیاده سازی راه حل های امنیتی نقطه پایانی، به روز نگه داشتن نرم افزار و سیستم ها، و هوشیار ماندن در برابر پیام ها یا درخواست های مشکوک” است، مهم است.
در همین حال، لانگ توصیه میکند از فایلهایی که هنگام بازدید از یک وبسایت بهطور خودکار از شما خواسته میشود نصب کنید، اجتناب کنید. وقتی نوبت به بهروزرسانی یا دانلود یک برنامه میرسد، آن را از فروشگاه رسمی برنامه یا وبسایت فروشنده نرمافزار دریافت کنید. و هنگام کلیک کردن بر روی نتایج جستجو یا ورود به یک وب سایت مراقب باشید – هکرها می توانند به سادگی هزینه ای را بپردازند تا سایت های کلاهبرداری خود را در بالای نتایج جستجو قرار دهند و اطلاعات ورود شما را با وب سایت هایی شبیه به هم که به دقت ساخته شده اند به سرقت ببرند.
ChatGPT راه به جایی نمی برد، و همچنین بدافزاری که این همه آسیب در سراسر جهان ایجاد می کند. در حالی که تهدید توانایی رمزگذاری ChatGPT ممکن است در حال حاضر اغراق آمیز باشد، توانایی آن برای ایجاد ایمیل های فیشینگ می تواند باعث انواع سردردها شود. با این حال، بسیار ممکن است که از خود در برابر تهدیدی که ایجاد می کند محافظت کنید و مطمئن شوید که قربانی نمی شوید. در حال حاضر، احتیاط فراوان – و یک برنامه آنتی ویروس قوی – می تواند به سالم نگه داشتن دستگاه های شما کمک کند.
توصیه های سردبیران