تکنولوژی

کارشناس سایبری می‌گوید: تهدید مولد اطلاعات نادرست هوش مصنوعی “بیش از حد” است

انتظار می رود سال 2024 بزرگترین سال انتخابات جهانی در تاریخ باشد. این مصادف است با افزایش سریع دیپ فیک. طبق گزارش سامساب، تنها در منطقه آسیا و اقیانوسیه، جهش 1530 درصدی در جعل عمیق از سال 2022 تا 2023 مشاهده شد.

لینک عکس | ایستوک | گتی ایماژ

کارشناسان امنیت سایبری می ترسند محتوای تولید شده توسط هوش مصنوعی این امکان را داشته باشد که درک ما از واقعیت را مخدوش کند، نگرانی ای که در سال حساس انتخاباتی نگران کننده تر است.

اما یکی از کارشناسان ارشد حقیقت را مورد مناقشه قرار می‌دهد و در عوض پیشنهاد می‌کند که تهدیدی که برای دموکراسی ایجاد می‌کند ممکن است “بیش از حد” باشد.

مارتین لی، مدیر ارشد فناوری سیسکو در گروه تحقیقات امنیتی و اطلاعاتی Talos، به CNBC گفت که او فکر می‌کند که دیپ‌فیک – در حالی که به خودی خود یک فناوری قدرتمند است – به اندازه اخبار جعلی تأثیرگذار نیست.

او افزود، با این حال، ابزارهای مولد جدید هوش مصنوعی “تهدید برای تسهیل تولید محتوای جعلی هستند.”

مواد تولید شده با هوش مصنوعی اغلب می تواند حاوی شاخص های قابل تشخیصی باشد که نشان می دهد توسط یک شخص واقعی ایجاد نشده است.

محتویات بصری، به ویژه، در برابر نقص آسیب پذیر هستند. به عنوان مثال، تصاویر تولید شده توسط هوش مصنوعی ممکن است حاوی ناهنجاری های بصری باشند، مانند فردی با بیش از دو بازو یا اندامی که با پس زمینه تصویر ترکیب شده است.

رمزگشایی بین صدای صوتی تولید شده مصنوعی و کلیپ های صوتی افراد واقعی می تواند دشوارتر باشد. اما کارشناسان می گویند که هوش مصنوعی به اندازه داده های آموزشی آن خوب است.

مطلب پیشنهادی:  جالبترین هدایای فناوری Raksha Bandhan که خواهر و برادر شما دوست خواهند داشت! شما نمی خواهید این را از دست بدهید

لی گفت: “با این حال، محتوای تولید شده توسط ماشین اغلب وقتی به صورت عینی مشاهده می شود، قابل تشخیص است. در هر صورت، تولید محتوا بعید است که مهاجمان را محدود کند.”

کارشناسان قبلا به CNBC گفته بودند که انتظار دارند اطلاعات نادرست تولید شده توسط هوش مصنوعی یک خطر کلیدی در انتخابات آینده در سراسر جهان باشد.

“کارایی محدود”

مت کالکینز، مدیر عامل شرکت فناوری سازمانی Appian، که به کسب و کارها کمک می‌کند برنامه‌ها را با ابزارهای نرم‌افزاری آسان‌تر کنند، می‌گوید که هوش مصنوعی «کارایی محدود» دارد.

او اضافه کرد که بسیاری از ابزارهای مولد هوش مصنوعی امروزی می توانند “خسته کننده” باشند. هنگامی که شما را بشناسد، می تواند از شگفت انگیز به مفید تبدیل شود [but] در حال حاضر نمی تواند از این خط عبور کند.”

کالکینز این هفته در مصاحبه ای با CNBC گفت: زمانی که آماده باشیم به هوش مصنوعی با دانش درباره خودش اعتماد کنیم، واقعا شگفت انگیز خواهد بود.

کالکینز هشدار داد که این می‌تواند آن را به ابزاری مؤثرتر – و خطرناک‌تر – برای اطلاعات نادرست در آینده تبدیل کند و افزود که از پیشرفت‌هایی که در تلاش‌های مربوط به مقررات فناوری ایالات متحده ایجاد شده راضی نیست.

او افزود که ممکن است نیاز به هوش مصنوعی باشد تا چیزی بسیار “توهین آمیز” را برای قانونگذاران آمریکایی تولید کند. کالکینز گفت: “یک سال به ما فرصت دهید. صبر کنید تا هوش مصنوعی به ما توهین کند. سپس شاید تصمیم درستی بگیریم.” او گفت: «دموکراسی ها نهادهای واکنشی هستند.

با این حال، مهم نیست که هوش مصنوعی چقدر پیشرفته باشد، لی از سیسکو می‌گوید راه‌های آزمایش شده و آزمایش‌شده‌ای برای شناسایی اطلاعات نادرست وجود دارد – چه این اطلاعات توسط یک ماشین یا یک انسان ساخته شده باشد.

مطلب پیشنهادی:  اپل در حال عرضه به روز رسانی سیستم عامل بتا جدید برای سری AirPods خود است

«مردم باید بدانند که این حملات در حال وقوع است و از تکنیک هایی که می توان استفاده کرد آگاه باشند. لی پیشنهاد کرد، وقتی به محتوایی برخورد می کنیم که احساسات ما را تحریک می کند، باید توقف کنیم، مکث کنیم و از خود بپرسیم که آیا این اطلاعات به خودی خود قابل باور هستند یا خیر.

«آیا توسط یک منبع رسانه ای معتبر منتشر شده است؟ آیا سایر رسانه‌های معتبر نیز همین موضوع را گزارش می‌کنند؟» “اگر نه، احتمالاً یک کمپین کلاهبرداری یا اطلاعات نادرست است که باید نادیده گرفته شود یا گزارش شود.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا