کامپیوتر

یوروپل هشدار می دهد که مجرمان با هوش مصنوعی به چت ربات ها فرمان می دهند


یوروپل این هفته هشداری جدی صادر کرد و خطراتی را که جنایتکاران در مواجهه با موج جدید چت ربات‌های پیشرفته هوش مصنوعی با آن روبرو هستند را برجسته کرد.

در پستی که این هفته به صورت آنلاین به اشتراک گذاشته شد، آژانس اجرای قانون اروپا توضیح داد که چگونه ابزارهایی مانند ChatGPT و GPT-4 OpenAI و Bard گوگل به طور فزاینده ای توسط مجرمانی که به دنبال راه های جدیدی برای کلاهبرداری از مردم هستند استفاده می شود.

او سه حوزه خاص را که بیش از همه او را نگران می کرد، شناسایی کرد.

اول از همه فیشینگ و مهندسی اجتماعی هستند، که در آن ایمیل‌ها به هدف‌ها ارسال می‌شوند تا بتوانند فایل‌های آلوده به بدافزار را دانلود کنند یا روی پیوندی کلیک کنند که آنها را به یک وب‌سایت به همان اندازه خطرناک می‌برد.

ایمیل های فیشینگ، همانطور که شناخته می شوند، معمولاً پر از اشتباهات گرامری و املایی هستند و به پوشه اسپم ختم می شوند. حتی آنهایی که به صندوق ورودی می رسند به قدری وحشتناک نوشته شده اند که گیرنده می تواند به سرعت آنها را بدون فکر کردن دور بیندازد.

اما چت ربات‌های هوش مصنوعی می‌توانند پیام‌هایی به خوبی نوشته و بدون اشتباهات نامرتب ایجاد کنند، به مجرمان اجازه می‌دهند ایمیل‌های قانع‌کننده ارسال کنند، به این معنی که گیرندگان باید هنگام بررسی پیام‌های خود توجه بیشتری داشته باشند.

یوروپل گفت چت ربات های پیشرفته قادر به “تولید الگوهای زبانی هستند که می توانند برای تقلید از سبک گفتار افراد یا گروه های خاص استفاده شوند”، و افزود که چنین توانایی می تواند “در مقیاسی مورد سوء استفاده قرار گیرد تا قربانیان بالقوه را گمراه کند تا اعتماد خود را در دستان خود قرار دهند.” جنایتکاران.»

مطلب پیشنهادی:  این ها 10 ویدیوی یوتیوبی هستند که بیشترین بازدید را در تمام دوران ها داشته اند

یوروپل گفت که شکل متقاعدکننده‌تری از اطلاعات نادرست نیز گسترش خواهد یافت، با موج جدید چت‌بات‌ها که در ایجاد متنی با صدای معتبر با سرعت و مقیاس عالی می‌شوند، و افزود: «این مدل را برای اهداف تبلیغاتی و اطلاعات نادرست ایده‌آل می‌کند، زیرا به کاربران اجازه می‌دهد تولید و تولید کنند. انتشار پیام هایی که روایتی خاص را با تلاش نسبتاً کمی منعکس می کند.

سوم، یوروپل از کدگذاری به عنوان منطقه جدیدی یاد می کند که توسط مجرمان سایبری برای ایجاد بدافزار فتح شده است. این آژانس گفت: «علاوه بر تولید زبانی شبیه انسان، ChatGPT قادر به تولید کد در تعدادی از زبان های برنامه نویسی مختلف است. “برای یک مجرم بالقوه با دانش فنی کمی، این منبع ارزشمندی برای ایجاد کد مخرب است.”

این بیانیه گفت که این وضعیت “چشم انداز تیره ای” را برای کسانی که در سمت راست قانون هستند فراهم می کند زیرا شناسایی فعالیت های مجرمانه آنلاین دشوارتر می شود.

شور و شوق ربات چت هوش مصنوعی در نوامبر 2022 زمانی که OpenAI تحت حمایت مایکروسافت ابزار چشمگیر ChatGPT خود را راه اندازی کرد آغاز شد. یک نسخه بهبود یافته، GPT-4، اخیرا منتشر شد، در حالی که گوگل نیز ابزار مشابه خود را به نام Bard معرفی کرد. هر سه به دلیل توانایی چشمگیرشان در تولید متن با صدای طبیعی تنها با چند دستور شناخته شده اند و احتمالاً این فناوری در سال های آینده به تعدادی از وظایف مختلف کمک می کند یا حتی جایگزین می کند.

یکی دیگر از فناوری‌های مشابه مبتنی بر هوش مصنوعی به شما امکان می‌دهد تصاویر، ویدیوها و صداهای اصلی را تنها با چند جهت متنی ایجاد کنید، و نشان می‌دهد که چگونه هیچ شکلی از رسانه از تأثیر هوش مصنوعی در امان نخواهد ماند زیرا این فناوری همچنان در حال پیشرفت است.

مطلب پیشنهادی:  سامسونگ Odyssey G9 را ارزان تر نخواهید داشت

برخی از صداهای پیشرو نگرانی های قابل درک در مورد رشد سریع آن دارند، با نامه سرگشاده اخیر که توسط ایلان ماسک، بنیانگذار اپل، استیو وزنیاک و کارشناسان مختلف امضا شده است که استدلال می کنند سیستم های هوش مصنوعی با هوش انسانی و رقابتی می توانند “خطرات عمیقی برای جامعه و بشریت” داشته باشند. این نامه خواستار یک مکث شش ماهه برای ایجاد و اجرای پروتکل های ایمنی برای ابزارهای پیشرفته شد و افزود که اگر به درستی مورد استفاده قرار گیرد، “بشریت می تواند با هوش مصنوعی از آینده ای مرفه برخوردار شود.”

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا