تکنولوژی

ما آماده نیستیم که توسط ChatGPT تشخیص داده شویم

ممکن است هوش مصنوعی اهمیتی نداشته باشد که مردم زنده می‌شوند یا می‌میرند، اما ابزارهایی مانند ChatGPT همچنان بر تصمیم‌گیری‌های مرگ و زندگی تأثیر می‌گذارند – زمانی که به ابزاری استاندارد در دست پزشکان تبدیل شوند. برخی در حال حاضر با ChatGPT آزمایش می کنند تا ببینند که آیا می تواند بیماران را تشخیص دهد و درمان را انتخاب کند. خوب یا بد بودن آن بستگی به نحوه استفاده پزشکان از آن دارد.

GPT-4، آخرین به‌روزرسانی ChatGPT، می‌تواند امتیاز کاملی در آزمون‌های مجوز پزشکی کسب کند. وقتی مشکلی پیش می‌آید، اغلب یک اختلاف پزشکی قانونی در مورد پاسخ وجود دارد. حتی در کارهایی که فکر می‌کردیم نیاز به شفقت انسانی دارد، مانند یافتن کلمات مناسب برای دادن خبر بد به بیماران، خوب است.

این سیستم ها همچنین در حال توسعه ظرفیت پردازش تصویر هستند. در این مرحله، شما هنوز به یک پزشک واقعی نیاز دارید تا یک توده را لمس کند یا یک رباط پاره شده را ارزیابی کند، اما هوش مصنوعی می تواند MRI یا سی تی اسکن را بخواند و قضاوت پزشکی ارائه دهد. در حالت ایده‌آل، هوش مصنوعی جایگزین کار عملی پزشکی نمی‌شود، بلکه آن را تقویت می‌کند – و با این حال، ما به درک زمان و مکانی که پیروی از توصیه‌های آن عملی یا اخلاقی است، نزدیک‌تر نیستیم.

و این اجتناب ناپذیر است که مردم از آن برای هدایت تصمیمات مراقبت های بهداشتی خودمان استفاده کنند، درست همانطور که ما به «دکتر. گوگل برای سالها اگرچه اطلاعات بیشتری در اختیار داریم، کارشناسان بهداشت عمومی این هفته اطلاعات نادرست فراوانی را به دلیل طول عمر نسبتاً کوتاه ما سرزنش کردند – چیزی که می‌تواند توسط GPT-4 بهبود یا بدتر شود.

مطلب پیشنهادی:  اگر سیارک 900 متری ریوگو به زمین برخورد کند، آیا از این فاجعه وحشتناک جان سالم به در خواهیم برد؟

اندرو بیم، استاد انفورماتیک زیست‌پزشکی در هاروارد، از عملکرد GPT-4 شگفت‌زده شد، اما به من گفت که می‌تواند با تغییر نامحسوس نحوه بیان پیام‌هایش، پاسخ‌های بسیار متفاوتی به آن بدهد. برای مثال، او لزوماً در معاینات پزشکی خوب عمل نمی کند، مگر اینکه به او بگویید که آنها را انجام دهد، مثلاً به او بگویید که انگار باهوش ترین فرد جهان است.

او گفت که تنها کاری که واقعاً انجام می‌دهد این است که پیش‌بینی کند که کدام کلمات بعدی باید بیایند – یک سیستم تکمیل خودکار. با این حال به نظر بسیار شبیه به فکر کردن است.

او گفت: «نکته شگفت‌انگیز، و چیزی که فکر می‌کنم افراد کمی پیش‌بینی کرده‌اند، این است که بسیاری از وظایفی که فکر می‌کنیم به هوش عمومی نیاز دارند، کارهای خودکار پنهان هستند. این شامل برخی از اشکال استدلال پزشکی است.

یک کلاس کامل از فناوری‌ها، مدل‌های زبانی بزرگ، قرار است منحصراً با زبان سروکار داشته باشند، اما کاربران دریافته‌اند که آموزش زبان بیشتر به آنها کمک می‌کند معادلات ریاضی پیچیده‌تر را حل کنند. بیم گفت: «ما این پدیده را به خوبی درک نمی کنیم. “من فکر می کنم بهترین راه برای فکر کردن در مورد آن این است که حل سیستم های معادلات خطی یک مورد خاص از توانایی استدلال در مورد مقدار زیادی از داده های متنی به نوعی است.”

ایزاک کوهان، پزشک و رئیس برنامه انفورماتیک زیست پزشکی در دانشکده پزشکی هاروارد، در پاییز گذشته فرصتی برای شروع آزمایش با GPT-4 داشت. او آنقدر تحت تأثیر قرار گرفت که به سرعت آن را به کتابی با نام «انقلاب هوش مصنوعی در پزشکی: GPT-4 و فراتر از آن» که با همکاری پیتر لی از مایکروسافت و روزنامه‌نگار سابق بلومبرگ، کری گلدبرگ، نوشت، تبدیل کرد. او به من گفت که یکی از آشکارترین مزایای هوش مصنوعی کمک به کاهش یا حذف ساعات اداری است که اکنون پزشکان را از صرف وقت کافی با بیماران باز می دارد، چیزی که اغلب منجر به فرسودگی شغلی می شود.

مطلب پیشنهادی:  هیچ چیز تلفن (1) فروش بازگشت. آخرین قیمت ها، پیشنهادات برای گرفتن این معامله را بررسی کنید

اما او همچنین از این سیستم برای کمک به تشخیص به عنوان متخصص غدد اطفال استفاده کرد. به گفته وی، در یک مورد، نوزادی با اندام تناسلی مبهم به دنیا آمد و GPT-4 آزمایش هورمونی و سپس آزمایش ژنتیکی را توصیه کرد که علت را کمبود 11 هیدروکسیلاز نشان داد. او گفت: «او نه تنها با ارائه پرونده به صورت یکباره آن را تشخیص داد، بلکه خواستار رسیدگی مناسب به هر مرحله شد.

برای او، ارزش ارائه نظر دوم – نه جایگزین کردن آن – بود، اما ارائه او این سوال را ایجاد می‌کند که آیا گرفتن یک نظر هوش مصنوعی همچنان برای بیمارانی که به بهترین متخصصان انسانی دسترسی ندارند بهتر از هیچ است یا خیر.

مانند یک پزشک انسان، GPT-4 می تواند اشتباه باشد و لزوماً در مورد محدودیت های درک خود صادق نباشد. وقتی می‌گویم «می‌فهمد»، همیشه باید آن را در نقل قول قرار دهم، زیرا چگونه می‌توان گفت چیزی که می‌داند چگونه کلمه بعدی را پیش‌بینی کند، در واقع چیزی را می‌فهمد؟ شاید اینطور باشد، اما این یک طرز تفکر بسیار خارجی است.»

همچنین می‌توانید با درخواست از GPT-4 وانمود کند که به عنوان یک پزشک که جراحی را آخرین راه حل می‌داند، در مقابل یک پزشک کمتر محافظه‌کار، پاسخ‌های متفاوتی بدهد. اما در برخی موارد او کاملاً سرسخت است: کهنه سعی کرد او را متقاعد کند که به او بگوید کدام داروها به او کمک می کنند تا چند کیلو وزن کم کند و قاطعانه معتقد بود که داروها برای افرادی که به طور جدی اضافه وزن ندارند توصیه نمی شود.

مطلب پیشنهادی:  یک شفق در حال رقص که از ایستگاه فضایی بین المللی دیده می شود. کلیپ ناسا را ​​ببینید

با وجود توانایی های باورنکردنی آن، بیماران و پزشکان نباید بیش از حد به آن اعتماد کنند یا کورکورانه به آن اعتماد کنند. او ممکن است طوری رفتار کند که انگار به شما اهمیت می دهد، اما احتمالاً اینطور نیست. ChatGPT و امثال آن ابزارهایی هستند که برای استفاده خوب به مهارت زیادی نیاز دارند – اما دقیقاً کدام مهارت ها هنوز به خوبی درک نشده اند.

حتی کسانی که در هوش مصنوعی غوطه ور هستند برای درک اینکه چگونه این فرآیند فکری از یک سیستم ساده تکمیل خودکار سرچشمه می گیرد، تلاش می کنند. نسخه بعدی، GPT-5، حتی سریعتر و هوشمندتر خواهد بود. ما با تغییر بزرگی در شیوه تمرین پزشکی روبرو هستیم – و بهتر است هر کاری که می توانیم انجام دهیم تا آماده باشیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا