ساندار پیچای، مدیر عامل گوگل: هوش مصنوعی می تواند به دفاع در برابر تهدیدات امنیت سایبری کمک کند
ساندار پیچای، مدیر عامل گوگل در گفتگو با امیلی چانگ در جریان اجلاس سران APEC در Moscone West در 16 نوامبر 2023 در سانفرانسیسکو، کالیفرنیا صحبت می کند. اجلاس ATIS در سانفرانسیسکو در حال برگزاری است و تا 17 نوامبر ادامه خواهد داشت.
جاستین سالیوان | اخبار گتی ایماژ | گتی ایماژ
مونیخ – به گفته مونیخ، پیشرفت های سریع در هوش مصنوعی می تواند به تقویت دفاع در برابر تهدیدات امنیت سایبری کمک کند. گوگل مدیرعامل ساندار پیچای.
پیچای گفت: در میان نگرانیهای فزاینده در مورد استفادههای بالقوه شرورانه از هوش مصنوعی، ابزارهای اطلاعاتی میتوانند به دولتها و شرکتها کمک کنند تا شناسایی و واکنش به تهدیدات بازیگران متخاصم را سرعت بخشند.
ما حق داریم در مورد تأثیر آن بر امنیت سایبری نگران باشیم. پیچای در اواخر هفته گذشته به نمایندگانی در کنفرانس امنیتی مونیخ گفت، اما فکر میکنم هوش مصنوعی در واقع به طور غیرمستقیم، دفاع ما را از نظر امنیت سایبری تقویت میکند.
حملات امنیت سایبری در حال افزایش حجم و پیچیدگی هستند زیرا عوامل مخرب به طور فزاینده ای از آنها به عنوان راهی برای اعمال قدرت و اخاذی استفاده می کنند.
به گفته شرکت تحقیقات سایبری Cybersecurity Ventures، حملات سایبری در سال 2023 حدود 8 تریلیون دلار به اقتصاد جهانی خسارات وارد کرد – این رقم تا سال 2025 به 10.5 تریلیون دلار افزایش خواهد یافت.
در گزارش ژانویه مرکز ملی امنیت سایبری بریتانیا – بخشی از GCHQ، آژانس اطلاعاتی این کشور – آمده است که هوش مصنوعی تنها این تهدیدات را افزایش میدهد، موانع ورود هکرهای سایبری را کاهش میدهد و فعالیتهای مخرب سایبری از جمله حملات باجافزار را ممکن میسازد.
“هوش مصنوعی به طور نامتناسبی به افرادی که از خود دفاع می کنند کمک می کند زیرا شما ابزاری را دریافت می کنید که می تواند آنها را در مقیاس بزرگ تحت تأثیر قرار دهد.
ساندار پیچای
مدیر عامل گوگل
با این حال پیچای گفت هوش مصنوعی همچنین زمان لازم برای شناسایی و پاسخ به حملات را برای مدافعان کاهش می دهد. او گفت که این امر چیزی را که به عنوان معضل مدافعان شناخته می شود کاهش می دهد، جایی که هکرها برای حمله به یک سیستم فقط یک بار باید موفق شوند، در حالی که یک مدافع باید هر بار برای محافظت از آن موفق باشد.
او گفت: “هوش مصنوعی به طور نامتناسبی به افرادی که از خود دفاع می کنند کمک می کند، زیرا ابزاری به دست می آورید که می تواند بر روی آن در مقیاس در مقایسه با افرادی که سعی در بهره برداری دارند تاثیر بگذارد.”
او افزود: «بنابراین ما به نوعی در مسابقه پیروز هستیم.
هفته گذشته، گوگل ابتکار جدیدی را اعلام کرد که ابزارهای هوش مصنوعی و سرمایه گذاری های زیرساختی را برای بهبود امنیت آنلاین ارائه می دهد. این شرکت در بیانیه ای اعلام کرد، ابزاری رایگان و منبع باز به نام Magika به کاربران کمک می کند تا بدافزارها را شناسایی کنند – نرم افزارهای مخرب – در حالی که یک کاغذ سفید اقدامات و تحقیقات را ارائه می دهد و حفاظ هایی را در اطراف هوش مصنوعی ایجاد می کند.
پیچای گفت که این ابزارها در حال حاضر در محصولات این شرکت مانند گوگل کروم و جیمیل و همچنین در سیستم های داخلی آن استفاده می شود.
“هوش مصنوعی در یک تقاطع قطعی قرار دارد – جایی که سیاست گذاران، متخصصان امنیتی و جامعه مدنی این شانس را دارند که در نهایت تعادل امنیت سایبری را از مهاجمان به مدافعان تغییر دهند.”
این انتشار همزمان با امضای قراردادی توسط شرکتهای بزرگ در MSC برای اتخاذ “اقدامات احتیاطی معقول” برای جلوگیری از استفاده از ابزارهای هوش مصنوعی برای برهم زدن آرای دموکراتیک در سال 2024، یک سال انتخابات عظیم و پس از آن بود.
ادوبی، آمازون، گوگل، آیبیام، متا، مایکروسافت، اپنآی، تیکتاک و ایکس از جمله امضاکنندگان این قرارداد بودند که شامل چارچوبی برای نحوه واکنش شرکتها به «جعلهای عمیق» تولید شده توسط هوش مصنوعی است که برای فریب رأیدهندگان طراحی شدهاند.
این امر زمانی به وجود می آید که اینترنت به یک حوزه نفوذ مهم فزاینده هم برای افراد و هم برای بازیگران مخرب تحت حمایت دولت تبدیل می شود.
هیلاری کلینتون، وزیر امور خارجه سابق آمریکا روز شنبه فضای مجازی را «میدان نبرد جدید» توصیف کرد.
او در مونیخ گفت: «مسابقه تسلیحاتی تکنولوژیک به تازگی با هوش مصنوعی مولد یک درجه بالاتر رفته است.
اگر بتوانید کمی سریعتر از حریف بدوید، بهتر عمل خواهید کرد. این چیزی است که هوش مصنوعی در حالت دفاعی به ما می دهد.
مارک هیوز
رئیس بخش امنیت در DXC
گزارشی که هفته گذشته توسط مایکروسافت منتشر شد نشان داد که هکرهای تحت حمایت دولت از روسیه، چین و ایران از مدل زبان بزرگ OpenAI (LLM) برای بهبود تلاشهای خود برای جعل اهداف استفاده میکنند.
گفته می شود اطلاعات نظامی روسیه، سپاه پاسداران ایران و دولت های چین و کره شمالی بر این ابزارها تکیه کرده اند.
مارک هیوز، رئیس بخش امنیت در خدمات فناوری اطلاعات و شرکت مشاوره DXC Technology، به CNBC گفت که بازیگران بد به طور فزاینده ای به ابزار هک الهام گرفته از ChatGPT به نام WormGPT برای انجام وظایفی مانند کدهای مهندسی معکوس تکیه می کنند.
با این حال، او گفت که “مزایای قابل توجهی” را نیز از چنین ابزارهایی می بیند که به مهندسان کمک می کند تا حملات مهندسی را به سرعت شناسایی و مهار کنند.
هیوز هفته گذشته گفت: «این به ما فرصتی میدهد که شتاب کنیم. «بیشتر اوقات در فضای مجازی، چیزی که در اختیار دارید، زمانی است که مهاجمان در برابر شما مزیت دارند. این اغلب در هر موقعیت درگیری وجود دارد.
اگر بتوانید کمی سریعتر از حریف بدوید، بهتر عمل خواهید کرد. این همان چیزی است که هوش مصنوعی در حال حاضر در حالت دفاعی به ما می دهد.»