تکنولوژی

Deepfkes های سیاسی مغز شما را می ربایند – اگر به آنها اجازه دهید

تصاویر واقعی و صداهای ضبط شده تولید شده توسط هوش مصنوعی ممکن است آخرین تهدید برای دموکراسی باشد، اما آنها بخشی از یک خانواده قدیمی کلاهبرداری هستند. راه مبارزه با به اصطلاح دیپ فیک، توسعه نوعی از هوش مصنوعی شایعه ساز یا آموزش عمومی برای تشخیص تصاویر جعلی نیست. یک تاکتیک بهتر تشویق چندین روش شناخته شده تفکر انتقادی است – تمرکز مجدد توجه، بررسی مجدد منابع و پرسش.

برخی از این ابزارهای تفکر انتقادی همانطور که در کتاب تفکر، سریع و آهسته توضیح داده شده است، در دسته «سیستم 2» یا تفکر کند قرار می گیرند. هوش مصنوعی در فریب دادن “سیستم 1” سریع فکر می کند – حالتی که اغلب به نتیجه گیری می رسد.

ما می توانیم با تغییر توجه به سیاست ها و نتایج به جای شایعات و شایعات شروع کنیم. و اگر دونالد ترامپ، رئیس‌جمهور اسبق آمریکا به یک کلمه برخورد کند و سپس هوش مصنوعی را به دستکاری متهم کند، چه؟ و اگر رئیس جمهور جو بایدن یک تاریخ را فراموش کند چه؟ هیچ کدام از این دو رویداد چیزی در مورد سیاست یا اولویت های هر کدام به شما نمی گوید.

وسواس در مورد واقعی یا جعلی بودن تصاویر می تواند اتلاف وقت و انرژی باشد. تحقیقات نشان می دهد که ما در تشخیص تقلبی ها وحشتناک هستیم.

Tijl Grootswagers، عصب شناس محاسباتی از دانشگاه وسترن سیدنی، می گوید: «ما در اشتباه گرفتن چیزها بسیار خوب هستیم. مردم هنگام تلاش برای شناسایی تقلبی ها به دنبال نقص هستند، اما تصاویر واقعی به احتمال زیاد دارای نقص هستند.

او گفت که مردم ممکن است ناخودآگاه به تصاویر عمیقا جعلی بیشتر اعتماد کنند زیرا آنها کاملتر از واقعی هستند. مردم تمایل دارند چهره هایی را دوست داشته باشند و به آنها اعتماد کنند که کمتر عجیب و غریب و متقارن هستند، بنابراین تصاویر تولید شده با هوش مصنوعی اغلب می توانند جذاب تر و قابل اعتمادتر از تصاویر واقعی به نظر برسند.

مطلب پیشنهادی:  اپل ممکن است مدل جدید ویژن پرو را تا سال 2026 عرضه نکند: همه جزئیات را بیاموزید

درخواست از رای دهندگان برای انجام تحقیقات بیشتر در هنگام مواجهه با تصاویر یا ادعاها در رسانه های اجتماعی کافی نیست. دانشمندان علوم اجتماعی اخیراً به کشف نگران‌کننده‌ای دست یافته‌اند که افراد پس از انجام برخی «تحقیقات» با استفاده از گوگل، احتمال بیشتری دارد که اخبار جعلی را باور کنند.

این دلیلی نبود که تحقیق برای مردم یا دموکراسی بد است. مشکل این بود که بسیاری از مردم در حال انجام تحقیقات بیهوده بودند. آنها به دنبال شواهد تأیید کننده هستند، که مانند هر چیز دیگری در اینترنت، فراوان است – مهم نیست چقدر این ادعا دیوانه کننده است.

تحقیق واقعی مستلزم این است که آیا دلیلی برای باور به یک منبع خاص وجود دارد یا خیر. آیا سایت خبری معتبری است؟ کارشناس که اعتماد عمومی را جلب کرده است؟ تحقیق واقعی همچنین به معنای تحقیق در مورد احتمال اشتباه بودن چیزی است که می خواهید باور کنید. یکی از رایج‌ترین دلایلی که شایعات در X تکرار می‌شوند اما در رسانه‌های جریان اصلی تکرار نمی‌شوند، فقدان شواهد قابل اعتماد است.

فیلیپو منزر، دانشمند کامپیوتر و مدیر رصدخانه رسانه های اجتماعی در دانشگاه ایندیانا، گفت که هوش مصنوعی با تولید افراد جعلی واقع بینانه برای اظهار نظر در مورد مقالات، استفاده از رسانه های اجتماعی برای تبلیغ یک سایت اخبار جعلی را ارزان تر و آسان تر از همیشه کرده است.

او سال‌ها در مورد تکثیر حساب‌های جعلی، معروف به ربات‌ها، مطالعه کرده است، که می‌توانند از طریق اصل روان‌شناختی اثبات اجتماعی تأثیر بگذارند – و به نظر می‌رسد که بسیاری از افراد یک شخص یا ایده را دوست دارند یا با آن موافق هستند. ربات‌های اولیه خام بودند، اما حالا، او به من گفت، می‌توان آن‌ها را طوری ساخت که انگار در حال بحث‌های طولانی، مفصل و بسیار واقعی هستند.

مطلب پیشنهادی:  1 از هر 3 آمریکایی از هک گجت خانه هوشمند می ترسند: نظرسنجی

اما این هنوز فقط یک تاکتیک جدید در یک نبرد بسیار قدیمی است. گوردون پنی کوک، روانشناس دانشگاه کرنل، می گوید: «شما واقعاً به ابزارهای پیچیده برای ایجاد اطلاعات نادرست نیاز ندارید. مردم با استفاده از فتوشاپ یا تغییر کاربری تصاویر واقعی – مانند ارائه عکس هایی از سوریه به عنوان غزه – تقلب کرده اند.

من و پنی کوک در مورد تنش بین اعتماد بیش از حد و خیلی کم صحبت کردیم. در حالی که این خطر وجود دارد که اعتماد کم باعث شود مردم به چیزهایی که واقعی هستند شک کنند، ما توافق کردیم که خطر بیشتری وجود دارد که مردم بیش از حد به آنها اعتماد کنند.

هدف ما واقعاً تشخیص است – به طوری که مردم سؤالات درست را بپرسند. او گفت: «وقتی مردم چیزهایی را در رسانه‌های اجتماعی به اشتراک می‌گذارند، حتی به درستی آن فکر نمی‌کنند. آن‌ها بیشتر به این فکر می‌کنند که اشتراک‌گذاری چگونه جلوه‌شان می‌کند.

پرداختن به این روند ممکن است باعث شرمندگی بازیگر مارک روفالو شود، او اخیراً به دلیل به اشتراک گذاشتن تصویری که ظاهراً یک تصویر عمیقا جعلی بود، عذرخواهی کرد تا نشان دهد که دونالد ترامپ در تجاوز جنسی به جفری اپستین به خاطر دختران خردسال دست داشته است.

اگر هوش مصنوعی اعتماد به آنچه را در تلویزیون یا رسانه‌های اجتماعی می‌بینیم غیرممکن می‌کند، بد نیست، زیرا بسیاری از آن‌ها مدت‌ها قبل از جهش‌های اخیر در هوش مصنوعی غیرقابل اعتماد و دستکاری بودند. دهه‌ها پیش، ظهور تلویزیون، جذابیت فیزیکی شناخته شده را به عامل بسیار مهم‌تری برای همه متقاضیان تبدیل کرد. معیارهای مهم تری برای استناد به رأی وجود دارد.

مطلب پیشنهادی:  هزینه های گمرک هند برای شماره گیری تلفن افسر مالیات محلی تغییر می کند

تفکر در مورد سیاست ها، زیر سوال بردن منابع و مفروضات ما مستلزم یک شکل کندتر و دشوارتر از هوش انسانی است. اما با توجه به آنچه در خطر است، ارزش آن را دارد.

اخبار برتر امروز را بیشتر بخوانید:

آیفون 16 پرو لو رفت! آیفون آینده اپل ممکن است در رنگ های جدید تیتانیومی عرضه شود. بدانید آخرین شایعه چه می گوید. اینجا شیرجه بزنید

بازی های کلون! ابزارهای هوش مصنوعی در استودیوهای بازی های ویدیویی برای تولید کلون های صوتی مصنوعی برای شخصیت ها استفاده می شود که به طور بالقوه جایگزین بازیگران انسانی می شود. برخی از بازیگران شک دارند، در حالی که برخی دیگر، مانند اندی مگی، آن را فرصتی برای تجربه های جدید بازیگری در صورت جبران عادلانه می دانند. این درایو خودکار را اینجا ببینید.

هوش مصنوعی در حال تبدیل شدن به یک انحصار فناوری بزرگ است! علیرغم تمام رقابت هایی که با راه اندازی ChatGPT برانگیخته شد، اکثر بازیکنان جدید احتمالاً تسلیم می شوند. هزینه انجام کسب و کار برای زنده ماندن به تنهایی بسیار زیاد است و گوگل و مایکروسافت را تحت کنترل کامل قرار می دهند. همه چیز را اینجا ببینید.

یک چیز دیگر! ما اکنون در کانال های واتس اپ هستیم! ما را در آنجا دنبال کنید تا هیچ به روز رسانی دنیای فناوری را از دست ندهید. برای دنبال کردن کانال واتساپ HT Tech کلیک کنید اینجا برای پیوستن به هم اکنون!

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا