Deepfkes های سیاسی مغز شما را می ربایند – اگر به آنها اجازه دهید
تصاویر واقعی و صداهای ضبط شده تولید شده توسط هوش مصنوعی ممکن است آخرین تهدید برای دموکراسی باشد، اما آنها بخشی از یک خانواده قدیمی کلاهبرداری هستند. راه مبارزه با به اصطلاح دیپ فیک، توسعه نوعی از هوش مصنوعی شایعه ساز یا آموزش عمومی برای تشخیص تصاویر جعلی نیست. یک تاکتیک بهتر تشویق چندین روش شناخته شده تفکر انتقادی است – تمرکز مجدد توجه، بررسی مجدد منابع و پرسش.
برخی از این ابزارهای تفکر انتقادی همانطور که در کتاب تفکر، سریع و آهسته توضیح داده شده است، در دسته «سیستم 2» یا تفکر کند قرار می گیرند. هوش مصنوعی در فریب دادن “سیستم 1” سریع فکر می کند – حالتی که اغلب به نتیجه گیری می رسد.
ما می توانیم با تغییر توجه به سیاست ها و نتایج به جای شایعات و شایعات شروع کنیم. و اگر دونالد ترامپ، رئیسجمهور اسبق آمریکا به یک کلمه برخورد کند و سپس هوش مصنوعی را به دستکاری متهم کند، چه؟ و اگر رئیس جمهور جو بایدن یک تاریخ را فراموش کند چه؟ هیچ کدام از این دو رویداد چیزی در مورد سیاست یا اولویت های هر کدام به شما نمی گوید.
وسواس در مورد واقعی یا جعلی بودن تصاویر می تواند اتلاف وقت و انرژی باشد. تحقیقات نشان می دهد که ما در تشخیص تقلبی ها وحشتناک هستیم.
Tijl Grootswagers، عصب شناس محاسباتی از دانشگاه وسترن سیدنی، می گوید: «ما در اشتباه گرفتن چیزها بسیار خوب هستیم. مردم هنگام تلاش برای شناسایی تقلبی ها به دنبال نقص هستند، اما تصاویر واقعی به احتمال زیاد دارای نقص هستند.
او گفت که مردم ممکن است ناخودآگاه به تصاویر عمیقا جعلی بیشتر اعتماد کنند زیرا آنها کاملتر از واقعی هستند. مردم تمایل دارند چهره هایی را دوست داشته باشند و به آنها اعتماد کنند که کمتر عجیب و غریب و متقارن هستند، بنابراین تصاویر تولید شده با هوش مصنوعی اغلب می توانند جذاب تر و قابل اعتمادتر از تصاویر واقعی به نظر برسند.
درخواست از رای دهندگان برای انجام تحقیقات بیشتر در هنگام مواجهه با تصاویر یا ادعاها در رسانه های اجتماعی کافی نیست. دانشمندان علوم اجتماعی اخیراً به کشف نگرانکنندهای دست یافتهاند که افراد پس از انجام برخی «تحقیقات» با استفاده از گوگل، احتمال بیشتری دارد که اخبار جعلی را باور کنند.
این دلیلی نبود که تحقیق برای مردم یا دموکراسی بد است. مشکل این بود که بسیاری از مردم در حال انجام تحقیقات بیهوده بودند. آنها به دنبال شواهد تأیید کننده هستند، که مانند هر چیز دیگری در اینترنت، فراوان است – مهم نیست چقدر این ادعا دیوانه کننده است.
تحقیق واقعی مستلزم این است که آیا دلیلی برای باور به یک منبع خاص وجود دارد یا خیر. آیا سایت خبری معتبری است؟ کارشناس که اعتماد عمومی را جلب کرده است؟ تحقیق واقعی همچنین به معنای تحقیق در مورد احتمال اشتباه بودن چیزی است که می خواهید باور کنید. یکی از رایجترین دلایلی که شایعات در X تکرار میشوند اما در رسانههای جریان اصلی تکرار نمیشوند، فقدان شواهد قابل اعتماد است.
فیلیپو منزر، دانشمند کامپیوتر و مدیر رصدخانه رسانه های اجتماعی در دانشگاه ایندیانا، گفت که هوش مصنوعی با تولید افراد جعلی واقع بینانه برای اظهار نظر در مورد مقالات، استفاده از رسانه های اجتماعی برای تبلیغ یک سایت اخبار جعلی را ارزان تر و آسان تر از همیشه کرده است.
او سالها در مورد تکثیر حسابهای جعلی، معروف به رباتها، مطالعه کرده است، که میتوانند از طریق اصل روانشناختی اثبات اجتماعی تأثیر بگذارند – و به نظر میرسد که بسیاری از افراد یک شخص یا ایده را دوست دارند یا با آن موافق هستند. رباتهای اولیه خام بودند، اما حالا، او به من گفت، میتوان آنها را طوری ساخت که انگار در حال بحثهای طولانی، مفصل و بسیار واقعی هستند.
اما این هنوز فقط یک تاکتیک جدید در یک نبرد بسیار قدیمی است. گوردون پنی کوک، روانشناس دانشگاه کرنل، می گوید: «شما واقعاً به ابزارهای پیچیده برای ایجاد اطلاعات نادرست نیاز ندارید. مردم با استفاده از فتوشاپ یا تغییر کاربری تصاویر واقعی – مانند ارائه عکس هایی از سوریه به عنوان غزه – تقلب کرده اند.
من و پنی کوک در مورد تنش بین اعتماد بیش از حد و خیلی کم صحبت کردیم. در حالی که این خطر وجود دارد که اعتماد کم باعث شود مردم به چیزهایی که واقعی هستند شک کنند، ما توافق کردیم که خطر بیشتری وجود دارد که مردم بیش از حد به آنها اعتماد کنند.
هدف ما واقعاً تشخیص است – به طوری که مردم سؤالات درست را بپرسند. او گفت: «وقتی مردم چیزهایی را در رسانههای اجتماعی به اشتراک میگذارند، حتی به درستی آن فکر نمیکنند. آنها بیشتر به این فکر میکنند که اشتراکگذاری چگونه جلوهشان میکند.
پرداختن به این روند ممکن است باعث شرمندگی بازیگر مارک روفالو شود، او اخیراً به دلیل به اشتراک گذاشتن تصویری که ظاهراً یک تصویر عمیقا جعلی بود، عذرخواهی کرد تا نشان دهد که دونالد ترامپ در تجاوز جنسی به جفری اپستین به خاطر دختران خردسال دست داشته است.
اگر هوش مصنوعی اعتماد به آنچه را در تلویزیون یا رسانههای اجتماعی میبینیم غیرممکن میکند، بد نیست، زیرا بسیاری از آنها مدتها قبل از جهشهای اخیر در هوش مصنوعی غیرقابل اعتماد و دستکاری بودند. دههها پیش، ظهور تلویزیون، جذابیت فیزیکی شناخته شده را به عامل بسیار مهمتری برای همه متقاضیان تبدیل کرد. معیارهای مهم تری برای استناد به رأی وجود دارد.
تفکر در مورد سیاست ها، زیر سوال بردن منابع و مفروضات ما مستلزم یک شکل کندتر و دشوارتر از هوش انسانی است. اما با توجه به آنچه در خطر است، ارزش آن را دارد.
اخبار برتر امروز را بیشتر بخوانید:
آیفون 16 پرو لو رفت! آیفون آینده اپل ممکن است در رنگ های جدید تیتانیومی عرضه شود. بدانید آخرین شایعه چه می گوید. اینجا شیرجه بزنید
بازی های کلون! ابزارهای هوش مصنوعی در استودیوهای بازی های ویدیویی برای تولید کلون های صوتی مصنوعی برای شخصیت ها استفاده می شود که به طور بالقوه جایگزین بازیگران انسانی می شود. برخی از بازیگران شک دارند، در حالی که برخی دیگر، مانند اندی مگی، آن را فرصتی برای تجربه های جدید بازیگری در صورت جبران عادلانه می دانند. این درایو خودکار را اینجا ببینید.
هوش مصنوعی در حال تبدیل شدن به یک انحصار فناوری بزرگ است! علیرغم تمام رقابت هایی که با راه اندازی ChatGPT برانگیخته شد، اکثر بازیکنان جدید احتمالاً تسلیم می شوند. هزینه انجام کسب و کار برای زنده ماندن به تنهایی بسیار زیاد است و گوگل و مایکروسافت را تحت کنترل کامل قرار می دهند. همه چیز را اینجا ببینید.
یک چیز دیگر! ما اکنون در کانال های واتس اپ هستیم! ما را در آنجا دنبال کنید تا هیچ به روز رسانی دنیای فناوری را از دست ندهید. برای دنبال کردن کانال واتساپ HT Tech کلیک کنید اینجا برای پیوستن به هم اکنون!