تکنولوژی

دانشمندان از اسکن مغز و هوش مصنوعی برای رمزگشایی افکار استفاده می کنند

دانشمندان روز دوشنبه گفتند راهی برای استفاده از اسکن مغز و مدل‌سازی هوش مصنوعی برای رونویسی «ماهیت» آنچه مردم فکر می‌کنند، پیدا کرده‌اند، چیزی که به‌عنوان گامی به سوی ذهن‌خوانی توصیف شد.

اگرچه هدف اصلی رمزگشای زبان کمک به افرادی است که توانایی برقراری ارتباط را از دست داده اند، دانشمندان آمریکایی اذعان دارند که این فناوری سوالاتی را در مورد “حریم خصوصی ذهنی” ایجاد می کند.

به منظور رفع چنین ترس‌هایی، آن‌ها آزمایش‌هایی انجام دادند که نشان داد رمزگشای آن‌ها نمی‌تواند بر روی افرادی که به خود اجازه نمی‌دهند ساعت‌های طولانی در مورد فعالیت مغز خود در یک اسکنر تصویربرداری تشدید مغناطیسی کاربردی (fMRI) آموزش ببینند، استفاده شود.

تحقیقات قبلی نشان داده است که ایمپلنت مغزی می‌تواند به افرادی که دیگر نمی‌توانند صحبت یا بنویسند اجازه می‌دهد تا کلمات یا حتی جملات را تلفظ کنند.

این “رابط مغز و کامپیوتر” بر بخشی از مغز تمرکز می کند که هنگام تلاش برای تشکیل کلمات، دهان را کنترل می کند.

الکساندر هات، عصب شناس در دانشگاه تگزاس در آستین و یکی از نویسندگان مطالعه جدید، گفت که رمزگشای زبان تیمش “در سطح بسیار متفاوتی کار می کند.”

هوث در یک کنفرانس خبری آنلاین گفت: «سیستم ما واقعاً در سطح ایده‌ها، معناشناسی، معنا کار می‌کند.

بر اساس این مطالعه در مجله Nature Neuroscience، این اولین سیستمی است که می تواند زبان پیوسته را بدون ایمپلنت مغزی تهاجمی بازسازی کند.

– “عمیق تر از زبان” –

برای این مطالعه، سه نفر در مجموع 16 ساعت را در دستگاه fMRI صرف گوش دادن به روایت‌های شفاهی، عمدتاً پادکست‌هایی مانند عشق مدرن نیویورک تایمز کردند.

مطلب پیشنهادی:  هک های اوبر در گذشته و حال بر محاکمه رئیس سابق امنیت معطل مانده است

این به محققان اجازه داد تا نقشه‌برداری کنند که چگونه کلمات، عبارات و معانی پاسخ‌هایی را در مناطقی از مغز که برای پردازش زبان شناخته شده است، برمی‌انگیزند.

آنها این داده ها را به یک مدل زبان شبکه عصبی که از GPT-1 استفاده می کرد، پیشرو فناوری هوش مصنوعی که بعداً در ChatGPT بسیار محبوب پیاده سازی شد، وارد کردند.

این مدل برای پیش‌بینی چگونگی واکنش مغز هر فرد به گفتار درک شده آموزش داده شد، سپس گزینه‌ها را محدود کرد تا نزدیک‌ترین پاسخ را پیدا کرد.

برای آزمایش دقت مدل، هر یک از شرکت‌کنندگان سپس به داستان جدیدی در دستگاه fMRI گوش دادند.

اولین نویسنده این مطالعه، جری تانگ، گفت که رمزگشا می تواند “ماهیت آنچه کاربر می شنود را بازیابی کند.”

به عنوان مثال، هنگامی که شرکت کننده عبارت “من هنوز گواهینامه رانندگی ندارم” را شنید، مدل پاسخ داد: “او هنوز شروع به یادگیری رانندگی نکرده است.”

محققان اذعان کردند که رمزگشا با ضمایر شخصی مانند “من” یا “او” مشکل داشت.

اما حتی زمانی که شرکت‌کنندگان داستان‌های خود را می‌ساختند – یا فیلم‌های صامت را تماشا می‌کردند – رمزگشا همچنان می‌توانست «خلاصه» را بفهمد.

هات گفت: این نشان داد که “ما چیزی را که عمیق تر از زبان است رمزگشایی می کنیم، سپس آن را به زبان تبدیل می کنیم.”

هات گفت: از آنجایی که اسکن fMRI برای برداشت کلمات بسیار کند است، “یک درهم آمیخته، انباشته ای از اطلاعات را در چند ثانیه جمع آوری می کند.”

“بنابراین ما می توانیم توسعه ایده را ببینیم، حتی اگر کلمات دقیق گم شوند.”

مطلب پیشنهادی:  کارگران آمازون طرح انتخابات اتحادیه کالیفرنیا را پس از شکست کنار گذاشتند

– هشدار اخلاقی –

دیوید رودریگز-آریاس وایلن، استاد اخلاق زیستی در دانشگاه گرانادای اسپانیا که در این تحقیق شرکت نداشت، گفت که این امر فراتر از آن چیزی است که توسط رابط های قبلی مغز و کامپیوتر به دست آمده بود.

او گفت که این ما را به آینده ای نزدیک می کند که در آن ماشین ها می توانند “ذهن ها را بخوانند و افکار را رونویسی کنند” و هشدار داد که این ممکن است برخلاف میل افراد اتفاق بیفتد، مانند زمانی که آنها در خواب هستند.

محققان چنین نگرانی هایی را پیش بینی کردند.

آنها آزمایشاتی را انجام دادند که نشان داد رمزگشا بر روی یک فرد کار نمی کند، اگر قبلاً روی فعالیت مغز خود آموزش ندیده باشد.

سه شرکت کننده همچنین توانستند به راحتی رمزگشا را شکست دهند.

در حین گوش دادن به یکی از پادکست ها، به کاربران گفته شد که تا هفت بشمارند، نام حیوانات را به تصویر بکشند، یا داستان متفاوتی را در ذهن خود تعریف کنند. به گفته محققان، همه این تاکتیک ها رمزگشا را خراب کردند.

سپس تیم امیدوار است که روند را سرعت بخشد تا بتوانند اسکن های مغز را در زمان واقعی رمزگشایی کنند.

آنها همچنین خواستار تمهیداتی برای محافظت از حریم خصوصی روانی شدند.

رودریگز-آریاس وایلن، متخصص اخلاق زیستی، می‌گوید: «ذهن ما تاکنون حافظ حریم خصوصی ما بوده است.

این کشف می تواند اولین گام به سوی به خطر انداختن این آزادی در آینده باشد.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا