تکنولوژی

ساندار پیچای، مدیر عامل گوگل: هوش مصنوعی می تواند به دفاع در برابر تهدیدات امنیت سایبری کمک کند

ساندار پیچای، مدیر عامل گوگل در گفتگو با امیلی چانگ در جریان اجلاس سران APEC در Moscone West در 16 نوامبر 2023 در سانفرانسیسکو، کالیفرنیا صحبت می کند. اجلاس ATIS در سانفرانسیسکو در حال برگزاری است و تا 17 نوامبر ادامه خواهد داشت.

جاستین سالیوان | اخبار گتی ایماژ | گتی ایماژ

مونیخ – به گفته مونیخ، پیشرفت های سریع در هوش مصنوعی می تواند به تقویت دفاع در برابر تهدیدات امنیت سایبری کمک کند. گوگل مدیرعامل ساندار پیچای.

پیچای گفت: در میان نگرانی‌های فزاینده در مورد استفاده‌های بالقوه شرورانه از هوش مصنوعی، ابزارهای اطلاعاتی می‌توانند به دولت‌ها و شرکت‌ها کمک کنند تا شناسایی و واکنش به تهدیدات بازیگران متخاصم را سرعت بخشند.

ما حق داریم در مورد تأثیر آن بر امنیت سایبری نگران باشیم. پیچای در اواخر هفته گذشته به نمایندگانی در کنفرانس امنیتی مونیخ گفت، اما فکر می‌کنم هوش مصنوعی در واقع به طور غیرمستقیم، دفاع ما را از نظر امنیت سایبری تقویت می‌کند.

حملات امنیت سایبری در حال افزایش حجم و پیچیدگی هستند زیرا عوامل مخرب به طور فزاینده ای از آنها به عنوان راهی برای اعمال قدرت و اخاذی استفاده می کنند.

به گفته شرکت تحقیقات سایبری Cybersecurity Ventures، حملات سایبری در سال 2023 حدود 8 تریلیون دلار به اقتصاد جهانی خسارات وارد کرد – این رقم تا سال 2025 به 10.5 تریلیون دلار افزایش خواهد یافت.

در گزارش ژانویه مرکز ملی امنیت سایبری بریتانیا – بخشی از GCHQ، آژانس اطلاعاتی این کشور – آمده است که هوش مصنوعی تنها این تهدیدات را افزایش می‌دهد، موانع ورود هکرهای سایبری را کاهش می‌دهد و فعالیت‌های مخرب سایبری از جمله حملات باج‌افزار را ممکن می‌سازد.

مطلب پیشنهادی:  هلن اسکلتون بازیگر تلویزیون بریتانیایی 70000 پوند به دلیل کلاهبرداری بانکی از دست داد. تنها چیزی که طول کشید یک تماس تلفنی بود

“هوش مصنوعی به طور نامتناسبی به افرادی که از خود دفاع می کنند کمک می کند زیرا شما ابزاری را دریافت می کنید که می تواند آنها را در مقیاس بزرگ تحت تأثیر قرار دهد.

ساندار پیچای

مدیر عامل گوگل

با این حال پیچای گفت هوش مصنوعی همچنین زمان لازم برای شناسایی و پاسخ به حملات را برای مدافعان کاهش می دهد. او گفت که این امر چیزی را که به عنوان معضل مدافعان شناخته می شود کاهش می دهد، جایی که هکرها برای حمله به یک سیستم فقط یک بار باید موفق شوند، در حالی که یک مدافع باید هر بار برای محافظت از آن موفق باشد.

او گفت: “هوش مصنوعی به طور نامتناسبی به افرادی که از خود دفاع می کنند کمک می کند، زیرا ابزاری به دست می آورید که می تواند بر روی آن در مقیاس در مقایسه با افرادی که سعی در بهره برداری دارند تاثیر بگذارد.”

او افزود: «بنابراین ما به نوعی در مسابقه پیروز هستیم.

هفته گذشته، گوگل ابتکار جدیدی را اعلام کرد که ابزارهای هوش مصنوعی و سرمایه گذاری های زیرساختی را برای بهبود امنیت آنلاین ارائه می دهد. این شرکت در بیانیه ای اعلام کرد، ابزاری رایگان و منبع باز به نام Magika به کاربران کمک می کند تا بدافزارها را شناسایی کنند – نرم افزارهای مخرب – در حالی که یک کاغذ سفید اقدامات و تحقیقات را ارائه می دهد و حفاظ هایی را در اطراف هوش مصنوعی ایجاد می کند.

پیچای گفت که این ابزارها در حال حاضر در محصولات این شرکت مانند گوگل کروم و جیمیل و همچنین در سیستم های داخلی آن استفاده می شود.

مطلب پیشنهادی:  چگونه تسلا به پرفروش‌ترین شرکت خودروسازی نروژ تبدیل شد؟
در حالی که رئیس جمهور زلنسکی خواستار کمک های بیشتر شده است، قانونگذاران ایالات متحده بر حمایت از اوکراین تاکید می کنند

“هوش مصنوعی در یک تقاطع قطعی قرار دارد – جایی که سیاست گذاران، متخصصان امنیتی و جامعه مدنی این شانس را دارند که در نهایت تعادل امنیت سایبری را از مهاجمان به مدافعان تغییر دهند.”

این انتشار همزمان با امضای قراردادی توسط شرکت‌های بزرگ در MSC برای اتخاذ “اقدامات احتیاطی معقول” برای جلوگیری از استفاده از ابزارهای هوش مصنوعی برای برهم زدن آرای دموکراتیک در سال 2024، یک سال انتخابات عظیم و پس از آن بود.

ادوبی، آمازون، گوگل، آی‌بی‌ام، متا، مایکروسافت، اپن‌آی، تیک‌تاک و ایکس از جمله امضاکنندگان این قرارداد بودند که شامل چارچوبی برای نحوه واکنش شرکت‌ها به «جعل‌های عمیق» تولید شده توسط هوش مصنوعی است که برای فریب رأی‌دهندگان طراحی شده‌اند.

این امر زمانی به وجود می آید که اینترنت به یک حوزه نفوذ مهم فزاینده هم برای افراد و هم برای بازیگران مخرب تحت حمایت دولت تبدیل می شود.

هیلاری کلینتون، وزیر امور خارجه سابق آمریکا روز شنبه فضای مجازی را «میدان نبرد جدید» توصیف کرد.

او در مونیخ گفت: «مسابقه تسلیحاتی تکنولوژیک به تازگی با هوش مصنوعی مولد یک درجه بالاتر رفته است.

اگر بتوانید کمی سریعتر از حریف بدوید، بهتر عمل خواهید کرد. این چیزی است که هوش مصنوعی در حالت دفاعی به ما می دهد.

مارک هیوز

رئیس بخش امنیت در DXC

گزارشی که هفته گذشته توسط مایکروسافت منتشر شد نشان داد که هکرهای تحت حمایت دولت از روسیه، چین و ایران از مدل زبان بزرگ OpenAI (LLM) برای بهبود تلاش‌های خود برای جعل اهداف استفاده می‌کنند.

گفته می شود اطلاعات نظامی روسیه، سپاه پاسداران ایران و دولت های چین و کره شمالی بر این ابزارها تکیه کرده اند.

مطلب پیشنهادی:  سیارک 450 متری Bennu برای بازگشت به زمین توسط OSIRIS-REx ناسا نفوذ کرد. می دانم چه زمانی

مارک هیوز، رئیس بخش امنیت در خدمات فناوری اطلاعات و شرکت مشاوره DXC Technology، به CNBC گفت که بازیگران بد به طور فزاینده ای به ابزار هک الهام گرفته از ChatGPT به نام WormGPT برای انجام وظایفی مانند کدهای مهندسی معکوس تکیه می کنند.

با این حال، او گفت که “مزایای قابل توجهی” را نیز از چنین ابزارهایی می بیند که به مهندسان کمک می کند تا حملات مهندسی را به سرعت شناسایی و مهار کنند.

هیوز هفته گذشته گفت: «این به ما فرصتی می‌دهد که شتاب کنیم. «بیشتر اوقات در فضای مجازی، چیزی که در اختیار دارید، زمانی است که مهاجمان در برابر شما مزیت دارند. این اغلب در هر موقعیت درگیری وجود دارد.

اگر بتوانید کمی سریعتر از حریف بدوید، بهتر عمل خواهید کرد. این همان چیزی است که هوش مصنوعی در حال حاضر در حالت دفاعی به ما می دهد.»

وزیر دفاع گفت که آلمان سال‌ها از سود صلح بهره برده است

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا