کارشناس سایبری میگوید: تهدید مولد اطلاعات نادرست هوش مصنوعی “بیش از حد” است
انتظار می رود سال 2024 بزرگترین سال انتخابات جهانی در تاریخ باشد. این مصادف است با افزایش سریع دیپ فیک. طبق گزارش سامساب، تنها در منطقه آسیا و اقیانوسیه، جهش 1530 درصدی در جعل عمیق از سال 2022 تا 2023 مشاهده شد.
لینک عکس | ایستوک | گتی ایماژ
کارشناسان امنیت سایبری می ترسند محتوای تولید شده توسط هوش مصنوعی این امکان را داشته باشد که درک ما از واقعیت را مخدوش کند، نگرانی ای که در سال حساس انتخاباتی نگران کننده تر است.
اما یکی از کارشناسان ارشد حقیقت را مورد مناقشه قرار میدهد و در عوض پیشنهاد میکند که تهدیدی که برای دموکراسی ایجاد میکند ممکن است “بیش از حد” باشد.
مارتین لی، مدیر ارشد فناوری سیسکو در گروه تحقیقات امنیتی و اطلاعاتی Talos، به CNBC گفت که او فکر میکند که دیپفیک – در حالی که به خودی خود یک فناوری قدرتمند است – به اندازه اخبار جعلی تأثیرگذار نیست.
او افزود، با این حال، ابزارهای مولد جدید هوش مصنوعی “تهدید برای تسهیل تولید محتوای جعلی هستند.”
مواد تولید شده با هوش مصنوعی اغلب می تواند حاوی شاخص های قابل تشخیصی باشد که نشان می دهد توسط یک شخص واقعی ایجاد نشده است.
محتویات بصری، به ویژه، در برابر نقص آسیب پذیر هستند. به عنوان مثال، تصاویر تولید شده توسط هوش مصنوعی ممکن است حاوی ناهنجاری های بصری باشند، مانند فردی با بیش از دو بازو یا اندامی که با پس زمینه تصویر ترکیب شده است.
رمزگشایی بین صدای صوتی تولید شده مصنوعی و کلیپ های صوتی افراد واقعی می تواند دشوارتر باشد. اما کارشناسان می گویند که هوش مصنوعی به اندازه داده های آموزشی آن خوب است.
لی گفت: “با این حال، محتوای تولید شده توسط ماشین اغلب وقتی به صورت عینی مشاهده می شود، قابل تشخیص است. در هر صورت، تولید محتوا بعید است که مهاجمان را محدود کند.”
کارشناسان قبلا به CNBC گفته بودند که انتظار دارند اطلاعات نادرست تولید شده توسط هوش مصنوعی یک خطر کلیدی در انتخابات آینده در سراسر جهان باشد.
“کارایی محدود”
مت کالکینز، مدیر عامل شرکت فناوری سازمانی Appian، که به کسب و کارها کمک میکند برنامهها را با ابزارهای نرمافزاری آسانتر کنند، میگوید که هوش مصنوعی «کارایی محدود» دارد.
او اضافه کرد که بسیاری از ابزارهای مولد هوش مصنوعی امروزی می توانند “خسته کننده” باشند. هنگامی که شما را بشناسد، می تواند از شگفت انگیز به مفید تبدیل شود [but] در حال حاضر نمی تواند از این خط عبور کند.”
کالکینز این هفته در مصاحبه ای با CNBC گفت: زمانی که آماده باشیم به هوش مصنوعی با دانش درباره خودش اعتماد کنیم، واقعا شگفت انگیز خواهد بود.
کالکینز هشدار داد که این میتواند آن را به ابزاری مؤثرتر – و خطرناکتر – برای اطلاعات نادرست در آینده تبدیل کند و افزود که از پیشرفتهایی که در تلاشهای مربوط به مقررات فناوری ایالات متحده ایجاد شده راضی نیست.
او افزود که ممکن است نیاز به هوش مصنوعی باشد تا چیزی بسیار “توهین آمیز” را برای قانونگذاران آمریکایی تولید کند. کالکینز گفت: “یک سال به ما فرصت دهید. صبر کنید تا هوش مصنوعی به ما توهین کند. سپس شاید تصمیم درستی بگیریم.” او گفت: «دموکراسی ها نهادهای واکنشی هستند.
با این حال، مهم نیست که هوش مصنوعی چقدر پیشرفته باشد، لی از سیسکو میگوید راههای آزمایش شده و آزمایششدهای برای شناسایی اطلاعات نادرست وجود دارد – چه این اطلاعات توسط یک ماشین یا یک انسان ساخته شده باشد.
«مردم باید بدانند که این حملات در حال وقوع است و از تکنیک هایی که می توان استفاده کرد آگاه باشند. لی پیشنهاد کرد، وقتی به محتوایی برخورد می کنیم که احساسات ما را تحریک می کند، باید توقف کنیم، مکث کنیم و از خود بپرسیم که آیا این اطلاعات به خودی خود قابل باور هستند یا خیر.
«آیا توسط یک منبع رسانه ای معتبر منتشر شده است؟ آیا سایر رسانههای معتبر نیز همین موضوع را گزارش میکنند؟» “اگر نه، احتمالاً یک کمپین کلاهبرداری یا اطلاعات نادرست است که باید نادیده گرفته شود یا گزارش شود.”