تکنولوژی

برای مبارزه با تهدیدات ایمیل مبتنی بر هوش مصنوعی، آتش را با آتش مبارزه کنید

قدرت مغز انسان با هکرهایی که از حملات دیجیتالی مبتنی بر هوش مصنوعی با استفاده از جعل ایمیل تغذیه می شوند، قابل مقایسه نیست. بنابراین، حفاظت از امنیت سایبری باید توسط راه‌حل‌های هوش مصنوعی هدایت شود که استراتژی‌های هکرها را بهتر از خودشان می‌دانند.

این رویکرد مبارزه با هوش مصنوعی با هوش مصنوعی بهتر به‌عنوان یک استراتژی ایده‌آل در تحقیقاتی که در ماه مارس توسط شرکت سایبری Darktrace برای کشف بینش‌هایی درباره رفتار انسان در مورد ایمیل انجام شد، ظاهر شد. این مطالعه نیاز به ابزارهای سایبری جدید را برای مقابله با تهدیدات هکرهای مبتنی بر هوش مصنوعی که مشاغل را هدف قرار می دهند تأیید کرد.

این مطالعه به دنبال درک بهتر نحوه واکنش کارکنان در سراسر جهان به تهدیدات امنیتی بالقوه است. او همچنین آگاهی فزاینده آنها از نیاز به امنیت ایمیل بهتر را تشریح کرد.

نظرسنجی جهانی Darktrace از 6711 کارمند در ایالات متحده، بریتانیا، فرانسه، آلمان، استرالیا و هلند نشان داد که پاسخ دهندگان از ژانویه تا فوریه 2023 افزایش 135 درصدی در “حملات جدید مهندسی اجتماعی” در میان هزاران مشتری فعال ایمیل Darktrace را تجربه کردند. با پذیرش گسترده ChatGPT سازگار است.

این حملات جدید مهندسی اجتماعی از تکنیک‌های زبانی پیچیده، از جمله افزایش حجم متن، علائم نگارشی و طول جمله بدون پیوند یا پیوست استفاده می‌کنند. به گفته محققان، این روند نشان می دهد که هوش مصنوعی مولد، مانند ChatGPT، عاملان تهدید را قادر می سازد تا حملات پیچیده و هدفمندی را با سرعت و مقیاس ایجاد کنند.

به گفته Max Heinemeier، مدیر ارشد محصول Darktrace، یکی از سه نکته مهم در این تحقیق این است که اکثر کارمندان نگران تهدید ایمیل های تولید شده توسط هوش مصنوعی هستند.

“این تعجب آور نیست، زیرا این ایمیل ها اغلب از ارتباطات قانونی قابل تشخیص نیستند، و برخی از نشانه هایی که کارکنان معمولاً برای تشخیص “جعلی” به دنبال آن هستند شامل سیگنال هایی مانند املا و دستور زبان ضعیف است که چت بات ها ثابت کرده اند که در آنها بسیار موثر هستند. او به دیجیتال تو گفت.

نکات برجسته تحقیق

Darktrace از شرکت‌های خرده‌فروشی، پذیرایی و سرگرمی پرسید که چقدر نگران هستند که هکرها بتوانند از هوش مصنوعی مولد برای ایجاد ایمیل‌های جعلی غیرقابل تشخیص از ارتباطات واقعی استفاده کنند. هشتاد و دو درصد گفتند که نگران هستند.

مطلب پیشنهادی:  انتظارات بودجه 2023 تزارهای فناوری: آنچه آنها واقعاً از دولت مودی می خواهند

بیش از نیمی از پاسخ دهندگان آگاهی خود را از آنچه باعث می شود کارمندان فکر کنند ایمیل یک حمله فیشینگ است، نشان دادند. سه مورد برتر عبارتند از دعوت برای کلیک کردن بر روی یک پیوند یا باز کردن یک پیوست (68٪)، فرستنده ناشناس یا محتوای غیرمنتظره (61٪)، و املا و دستور زبان ضعیف (61٪).


به گفته هاین مایر، این مهم و نگران‌کننده است، زیرا 45 درصد از آمریکایی‌های مورد بررسی می‌گویند که قربانی یک ایمیل تقلبی شده‌اند.

جای تعجب نیست که کارمندان نگران توانایی خود برای تأیید مشروعیت ارتباطات ایمیل در دنیایی هستند که چت ربات‌های هوش مصنوعی به طور فزاینده‌ای قادر به تقلید از مکالمات دنیای واقعی و ایجاد ایمیل‌هایی هستند که همه علائم رایج حمله فیشینگ را ندارند. مانند پیوندهای مخرب یا پیوست‌ها،” او گفت.

سایر نتایج کلیدی این مطالعه شامل موارد زیر است:

  • 70 درصد از کارمندان در سراسر جهان در شش ماه گذشته شاهد افزایش فراوانی ایمیل‌ها و پیام‌های متنی جعلی بوده‌اند.
  • 87 درصد از کارمندان در سراسر جهان نگران میزان اطلاعات شخصی موجود در مورد آنها به صورت آنلاین هستند که می تواند برای فیشینگ و سایر کلاهبرداری های ایمیل استفاده شود.
  • 35 درصد از پاسخ دهندگان ChatGPT یا دیگر چت ربات های هوش مصنوعی را امتحان کرده اند

نرده های ایمنی خطای انسانی

هاین مایر خاطرنشان کرد: دسترسی گسترده به ابزارهای مولد هوش مصنوعی مانند ChatGPT و پیچیدگی فزاینده بازیگران دولت-ملت به این معنی است که کلاهبرداری از طریق ایمیل از همیشه قانع‌کننده‌تر است.

خطای انسانی بی‌گناه و تهدیدات داخلی همچنان یک مشکل است. هدایت اشتباه ایمیل یک خطر برای هر کارمند و هر سازمانی است. تقریباً دو نفر از هر پنج نفر یک ایمیل مهم را به اشتباه یا به دلیل تکمیل خودکار به گیرنده اشتباهی با نام مستعار مشابه ارسال کرده اند. این خطا در بخش خدمات مالی به بیش از نیمی (51٪) و در بخش حقوقی به 41٪ می رسد.

مطلب پیشنهادی:  حراج طیف 5G هند آغاز شد! جیو، ایرتل، آدانی برای امواج 5G پیشنهاد می دهند

صرف نظر از خطا، چنین خطاهای انسانی لایه دیگری از خطر امنیتی را اضافه می کند که مخرب نیست. یک سیستم خودآموز می تواند این خطا را قبل از به اشتراک گذاشتن نادرست اطلاعات محرمانه تشخیص دهد.

در پاسخ، Darktrace به روز رسانی قابل توجهی را برای راه حل جهانی ایمیل خود معرفی کرد. این به تقویت ابزارهای امنیتی ایمیل کمک می کند زیرا سازمان ها همچنان به ایمیل به عنوان ابزار اصلی برای همکاری و ارتباطات متکی هستند.

او گفت: «ابزارهای امنیتی ایمیل که بر دانش تهدیدات گذشته متکی هستند، در برابر تهدیدات ایمیلی در حال تکامل، برای سازمان‌های آینده‌نگر و کارکنان آن‌ها شکست می‌خورند».

به گفته هاینمیر، جدیدترین قابلیت ایمیل Darktrace شامل تشخیص رفتار برای ایمیل‌های هدایت‌شده است که از ارسال مالکیت معنوی یا اطلاعات محرمانه به گیرنده اشتباه جلوگیری می‌کند.

ابتکار امنیت سایبری با هوش مصنوعی

با درک آنچه که طبیعی است، دفاع‌های هوش مصنوعی می‌توانند تعیین کنند که چه چیزی در صندوق ورودی یک فرد خاص تعلق ندارد. سیستم‌های امنیتی ایمیل اغلب با شکست مواجه می‌شوند، به طوری که 79 درصد از پاسخ‌دهندگان گفتند که فیلترهای هرزنامه/امنیتی شرکتشان به اشتباه مانع از رسیدن ایمیل‌های مهم و قانونی به صندوق ورودی آنها می‌شود.

با درک عمیق سازمان و نحوه تعامل افراد آن با صندوق ورودی، هوش مصنوعی می‌تواند برای هر ایمیل مشخص کند که آیا آن ایمیل مشکوک است و باید بر اساس آن اقدام کرد یا اینکه قانونی است و باید دست نخورده باقی بماند.

Heinemeyer گفت: «ابزارهایی که بر اساس دانش حملات تاریخی کار می‌کنند، نمی‌توانند با حملات تولید شده توسط هوش مصنوعی مطابقت داشته باشند.


تجزیه و تحلیل حملات نشان می دهد که انحراف زبانی قابل توجهی – از نظر معنایی و نحوی – در مقایسه با سایر ایمیل های فیشینگ. او توضیح داد که این هیچ شکی باقی نمی‌گذارد که ابزارهای امنیتی ایمیل سنتی که بر روی دانش تهدیدات تاریخی کار می‌کنند، نمی‌توانند شاخص‌های ظریف این حملات را شناسایی کنند.

تحقیقات Darktrace نشان داد که راه حل های امنیتی ایمیل، از جمله ابزارهای هوش مصنوعی بومی، ابری و استاتیک، به طور متوسط ​​13 روز پس از انجام حمله علیه قربانی انجام می شود تا نقض شناسایی شود.

مطلب پیشنهادی:  گوگل در حال گسترش دید در پشت تبلیغاتش است

این باعث می‌شود که مدافعان فقط به این ابزارها اعتماد کنند، تقریباً دو هفته آسیب‌پذیر می‌شوند. دفاع هوش مصنوعی که تجارت را درک می کند برای شناسایی این حملات حیاتی خواهد بود.»

مشارکت هوش مصنوعی و انسان مورد نیاز است

هاین مایر معتقد است آینده امنیت ایمیل در مشارکت بین هوش مصنوعی و انسان نهفته است. در این ترتیب، الگوریتم ها وظیفه تعیین مخرب یا خوش خیم بودن یک ارتباط را بر عهده دارند، بنابراین بار مسئولیت از دوش انسان برداشته می شود.

او هشدار داد: «آموزش روش‌های خوب امنیت ایمیل مهم است، اما برای جلوگیری از تهدیدات تولید شده توسط هوش مصنوعی که شبیه ارتباطات بی‌خیم هستند، کافی نخواهد بود.

یکی از انقلاب های حیاتی که هوش مصنوعی در فضای ایمیل فعال می کند، درک عمیق “شما” است. او استدلال کرد که به جای تلاش برای پیش‌بینی حملات، درک رفتار کارکنان باید بر اساس صندوق ورودی، روابط، لحن، احساسات و صدها نقطه داده دیگر تعیین شود.

با استفاده از هوش مصنوعی برای مبارزه با تهدیدات امنیتی ایمیل، ما نه تنها ریسک را کاهش می‌دهیم، بلکه اعتماد سازمانی را احیا می‌کنیم و نتایج کسب‌وکار را هدایت می‌کنیم. در این سناریو، افراد آزاد می‌شوند تا در سطوح بالاتر و رویه‌های استراتژیک‌تر کار کنند.»

این یک مشکل امنیت سایبری کاملاً غیر قابل حل نیست

تهدید هوش مصنوعی تهاجمی به مدت یک دهه توسط طرف دفاعی مورد مطالعه قرار گرفته است. هاینمیر خاطرنشان کرد که مهاجمان به ناچار از هوش مصنوعی برای بهبود عملیات خود و به حداکثر رساندن بازگشت سرمایه استفاده خواهند کرد.

اما این چیزی نیست که از منظر دفاعی غیرقابل حل بدانیم. از قضا، هوش مصنوعی مولد ممکن است چالش مهندسی اجتماعی را تشدید کند، اما هوش مصنوعی که می‌داند ممکن است شما دشمن باشید.

Darktrace در حال آزمایش نمونه های اولیه هوش مصنوعی تهاجمی علیه فناوری این شرکت است تا به طور مداوم کارایی دفاعی خود را قبل از این تکامل اجتناب ناپذیر در چشم انداز مهاجم آزمایش کند. این شرکت متقاعد شده است که هوش مصنوعی، مجهز به درک عمیق کسب و کار، قدرتمندترین راه برای دفاع در برابر این تهدیدات در ادامه تکامل آنها خواهد بود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا