هوش مصنوعی یک کلاهبرداری طولانی مدت را حتی موثرتر می کند
احتمالاً در مورد کلاهبرداری شنیده اید که در آن مجرم با یک فرد مسن تماس می گیرد و وانمود می کند که نوه یا سایر بستگان نزدیک اوست. روال معمول این است که مضطرب رفتار کنید، وانمود کنید که در شرایط سختی هستید و درخواست انتقال فوری پول برای حل این وضعیت کنید. در حالی که بسیاری از پدربزرگها و مادربزرگها متوجه میشوند که صدا متعلق به نوهشان نیست و تلفن را قطع میکنند، دیگران متوجه نمیشوند و خیلی مشتاق برای کمک به بستگان پریشان خود، پول را به حساب تماسگیرنده واریز میکنند.
یک گزارش واشنگتن پست در روز یکشنبه نشان داد که برخی از کلاهبرداران با استفاده از فناوری هوش مصنوعی که قادر به شبیه سازی صداها است، کلاهبرداری را به سطح کاملاً جدیدی رسانده اند و این احتمال را بیشتر می کند که هدف کلاهبرداری شود.
به گزارش پست، برای راه اندازی این نسخه پیچیده تر از کلاهبرداری، مجرمان به “نمونه صوتی فقط چند جمله” نیاز دارند. سپس نمونه از طریق یکی از ابزارهای آنلاین بسیار در دسترس که از صدای اصلی برای ایجاد یک ماکت استفاده میکنند اجرا میشود که میتوان به سادگی با تایپ عبارات، هر آنچه را که میخواهید گفت.
داده های کمیسیون تجارت فدرال نشان می دهد که تنها در سال 2022، بیش از 36000 گزارش از به اصطلاح کلاهبرداران گزارش شده است که بیش از 5000 مورد از آنها از طریق تلفن بوده است. زیان گزارش شده به 11 میلیون دلار رسیده است.
ترس این است که با موثرتر شدن و در دسترستر شدن ابزارهای هوش مصنوعی، افراد بیشتری در ماهها و سالهای آینده گرفتار کلاهبرداری شوند.
این کلاهبرداری همچنان به برنامه ریزی نیاز دارد و یک مجرم مصمم باید یک نمونه صوتی از یک صدا و همچنین شماره تلفن قربانی متصل را پیدا کند. برای مثال، نمونه های صوتی را می توان به صورت آنلاین از طریق سایت های محبوب مانند TikTok و YouTube پیدا کرد، در حالی که شماره تلفن ها را نیز می توان در وب یافت.
کلاهبرداری نیز می تواند اشکال مختلفی داشته باشد. روزنامه پست به مثالی اشاره کرد که در آن شخصی که خود را به عنوان وکیل معرفی می کرد، با یک زوج مسن تماس گرفت و به آنها گفت که نوه آنها به اتهام جرمی در بازداشت است و آنها به بیش از 15000 دلار هزینه حقوقی نیاز دارند. سپس وکیل قلابی وانمود کرد که تلفن را به نوهشان میدهد، صدای شبیهسازیشدهاش برای پرداخت هزینهها کمک میکرد، که آنها به موقع انجام دادند.
آنها فقط زمانی متوجه شدند که از آنها کلاهبرداری شده است. اعتقاد بر این است که فریبکار ممکن است صدای خود را از ویدیوهای یوتیوب که نوه پست کرده بود شبیه سازی کرده باشد، اما مطمئن شدن از آن دشوار است.
برخی از شرکتهایی که فناوری هوش مصنوعی را ایجاد میکنند که صداها را شبیهسازی میکند، میخواهند که در قبال چنین جنایاتی پاسخگو باشند. اما قبل از اینکه این اتفاق بیفتد، مطمئن به نظر می رسد که بسیاری از افراد دیگر از طریق این کلاهبرداری مفتضحانه ضرر خواهند کرد.
برای شنیدن نمونهای از صدای شبیهسازیشده تا ببینید چقدر میتواند به صدای اصلی نزدیک باشد، این مقاله دیجیتال تو را بررسی کنید.
توصیه های سردبیران