دانشمندان از اسکن مغز و هوش مصنوعی برای رمزگشایی افکار استفاده می کنند
دانشمندان روز دوشنبه گفتند راهی برای استفاده از اسکن مغز و مدلسازی هوش مصنوعی برای رونویسی «ماهیت» آنچه مردم فکر میکنند، پیدا کردهاند، چیزی که بهعنوان گامی به سوی ذهنخوانی توصیف شد.
اگرچه هدف اصلی رمزگشای زبان کمک به افرادی است که توانایی برقراری ارتباط را از دست داده اند، دانشمندان آمریکایی اذعان دارند که این فناوری سوالاتی را در مورد “حریم خصوصی ذهنی” ایجاد می کند.
به منظور رفع چنین ترسهایی، آنها آزمایشهایی انجام دادند که نشان داد رمزگشای آنها نمیتواند بر روی افرادی که به خود اجازه نمیدهند ساعتهای طولانی در مورد فعالیت مغز خود در یک اسکنر تصویربرداری تشدید مغناطیسی کاربردی (fMRI) آموزش ببینند، استفاده شود.
تحقیقات قبلی نشان داده است که ایمپلنت مغزی میتواند به افرادی که دیگر نمیتوانند صحبت یا بنویسند اجازه میدهد تا کلمات یا حتی جملات را تلفظ کنند.
این “رابط مغز و کامپیوتر” بر بخشی از مغز تمرکز می کند که هنگام تلاش برای تشکیل کلمات، دهان را کنترل می کند.
الکساندر هات، عصب شناس در دانشگاه تگزاس در آستین و یکی از نویسندگان مطالعه جدید، گفت که رمزگشای زبان تیمش “در سطح بسیار متفاوتی کار می کند.”
هوث در یک کنفرانس خبری آنلاین گفت: «سیستم ما واقعاً در سطح ایدهها، معناشناسی، معنا کار میکند.
بر اساس این مطالعه در مجله Nature Neuroscience، این اولین سیستمی است که می تواند زبان پیوسته را بدون ایمپلنت مغزی تهاجمی بازسازی کند.
– “عمیق تر از زبان” –
برای این مطالعه، سه نفر در مجموع 16 ساعت را در دستگاه fMRI صرف گوش دادن به روایتهای شفاهی، عمدتاً پادکستهایی مانند عشق مدرن نیویورک تایمز کردند.
این به محققان اجازه داد تا نقشهبرداری کنند که چگونه کلمات، عبارات و معانی پاسخهایی را در مناطقی از مغز که برای پردازش زبان شناخته شده است، برمیانگیزند.
آنها این داده ها را به یک مدل زبان شبکه عصبی که از GPT-1 استفاده می کرد، پیشرو فناوری هوش مصنوعی که بعداً در ChatGPT بسیار محبوب پیاده سازی شد، وارد کردند.
این مدل برای پیشبینی چگونگی واکنش مغز هر فرد به گفتار درک شده آموزش داده شد، سپس گزینهها را محدود کرد تا نزدیکترین پاسخ را پیدا کرد.
برای آزمایش دقت مدل، هر یک از شرکتکنندگان سپس به داستان جدیدی در دستگاه fMRI گوش دادند.
اولین نویسنده این مطالعه، جری تانگ، گفت که رمزگشا می تواند “ماهیت آنچه کاربر می شنود را بازیابی کند.”
به عنوان مثال، هنگامی که شرکت کننده عبارت “من هنوز گواهینامه رانندگی ندارم” را شنید، مدل پاسخ داد: “او هنوز شروع به یادگیری رانندگی نکرده است.”
محققان اذعان کردند که رمزگشا با ضمایر شخصی مانند “من” یا “او” مشکل داشت.
اما حتی زمانی که شرکتکنندگان داستانهای خود را میساختند – یا فیلمهای صامت را تماشا میکردند – رمزگشا همچنان میتوانست «خلاصه» را بفهمد.
هات گفت: این نشان داد که “ما چیزی را که عمیق تر از زبان است رمزگشایی می کنیم، سپس آن را به زبان تبدیل می کنیم.”
هات گفت: از آنجایی که اسکن fMRI برای برداشت کلمات بسیار کند است، “یک درهم آمیخته، انباشته ای از اطلاعات را در چند ثانیه جمع آوری می کند.”
“بنابراین ما می توانیم توسعه ایده را ببینیم، حتی اگر کلمات دقیق گم شوند.”
– هشدار اخلاقی –
دیوید رودریگز-آریاس وایلن، استاد اخلاق زیستی در دانشگاه گرانادای اسپانیا که در این تحقیق شرکت نداشت، گفت که این امر فراتر از آن چیزی است که توسط رابط های قبلی مغز و کامپیوتر به دست آمده بود.
او گفت که این ما را به آینده ای نزدیک می کند که در آن ماشین ها می توانند “ذهن ها را بخوانند و افکار را رونویسی کنند” و هشدار داد که این ممکن است برخلاف میل افراد اتفاق بیفتد، مانند زمانی که آنها در خواب هستند.
محققان چنین نگرانی هایی را پیش بینی کردند.
آنها آزمایشاتی را انجام دادند که نشان داد رمزگشا بر روی یک فرد کار نمی کند، اگر قبلاً روی فعالیت مغز خود آموزش ندیده باشد.
سه شرکت کننده همچنین توانستند به راحتی رمزگشا را شکست دهند.
در حین گوش دادن به یکی از پادکست ها، به کاربران گفته شد که تا هفت بشمارند، نام حیوانات را به تصویر بکشند، یا داستان متفاوتی را در ذهن خود تعریف کنند. به گفته محققان، همه این تاکتیک ها رمزگشا را خراب کردند.
سپس تیم امیدوار است که روند را سرعت بخشد تا بتوانند اسکن های مغز را در زمان واقعی رمزگشایی کنند.
آنها همچنین خواستار تمهیداتی برای محافظت از حریم خصوصی روانی شدند.
رودریگز-آریاس وایلن، متخصص اخلاق زیستی، میگوید: «ذهن ما تاکنون حافظ حریم خصوصی ما بوده است.
این کشف می تواند اولین گام به سوی به خطر انداختن این آزادی در آینده باشد.»