سوء استفاده، آسیب “حتمی” است! WHO خطرات هوش مصنوعی برای سلامتی را برجسته می کند
هوش مصنوعی مولد میتواند مراقبتهای بهداشتی را از طریق مواردی مانند توسعه دارو و تشخیص سریعتر متحول کند، اما سازمان بهداشت جهانی روز پنجشنبه تاکید کرد که باید به خطرات آن توجه بیشتری شود.
WHO در حال بررسی خطرات و مزایای بالقوه ناشی از مدلهای بزرگ هوش مصنوعی چندوجهی (LMMs) است که نسبتاً جدید هستند و به سرعت در مراقبتهای بهداشتی مورد استفاده قرار میگیرند.
LMM ها نوعی هوش مصنوعی مولد هستند که می توانند از انواع مختلفی از داده های ورودی از جمله متن، تصویر و ویدئو استفاده کنند و خروجی هایی تولید کنند که محدود به نوع داده های تغذیه شده به الگوریتم نباشد.
ما اکنون در واتس اپ هستیم. برای عضویت کلیک کنید
WHO گفت: “پیش بینی می شود که LMM ها در مراقبت های بهداشتی، تحقیقات، بهداشت عمومی و توسعه دارو کاربرد و کاربرد گسترده ای داشته باشند.”
آژانس بهداشت سازمان ملل متحد پنج حوزه گسترده را که در آن فناوری می تواند مورد استفاده قرار گیرد، مشخص کرد.
این موارد عبارتند از: تشخیص، مانند پاسخ دادن به سوالات کتبی بیماران. تحقیق علمی و توسعه دارو؛ آموزش پزشکی و پرستاری؛ وظایف دفتری؛ و استفاده توسط بیمار، مانند آزمایش علائم.
– سوء استفاده، آسیب “غیر قابل اجتناب” –
اگرچه این پتانسیل دارد، اما WHO هشدار داده است که خطرات مستندی وجود دارد که LMM ها ممکن است نتایج نادرست، نادرست، مغرضانه یا ناقص ایجاد کنند.
آنها همچنین می توانند بر روی داده های با کیفیت پایین یا داده های حاوی سوگیری های مربوط به نژاد، قومیت، منشاء، جنسیت، هویت جنسیتی یا سن آموزش ببینند.
سازمان جهانی بهداشت هشدار داد: «از آنجایی که LMM ها کاربرد وسیع تری در سلامت و پزشکی پیدا می کنند، خطاها، استفاده نادرست و در نهایت آسیب به انسان ها اجتناب ناپذیر است».
روز پنجشنبه، توصیه هایی را در مورد اخلاق و حاکمیت LMM صادر کرد تا به دولت ها، شرکت های فناوری و ارائه دهندگان مراقبت های بهداشتی کمک کند تا از این فناوری به طور ایمن استفاده کنند.
جرمی فارار، دانشمند ارشد سازمان جهانی بهداشت گفت: «فناوریهای هوش مصنوعی مولد پتانسیل بهبود مراقبتهای بهداشتی را دارند، اما تنها در صورتی که کسانی که این فناوریها را توسعه، تنظیم و استفاده میکنند، خطرات مربوطه را شناسایی کرده و بهطور کامل پاسخگوی آن باشند».
ما به اطلاعات و سیاستهای شفاف برای مدیریت طراحی، توسعه و استفاده از LMM نیاز داریم.»
WHO گفت قوانین مسئولیت برای اطمینان از اینکه مصرف کنندگان آسیب دیده توسط LMM به اندازه کافی غرامت دریافت می کنند یا اشکال دیگری برای جبران خسارت دارند، مورد نیاز است.
– نقش غول های فناوری –
هوش مصنوعی در حال حاضر در تشخیص و مراقبت های بالینی، به عنوان مثال برای کمک به رادیولوژی و تصویربرداری پزشکی استفاده می شود.
با این حال، WHO تأکید کرد که قالبهای LMM خطراتی را ایجاد میکنند که جوامع، سیستمهای بهداشتی و کاربران نهایی ممکن است هنوز آمادگی کامل برای مقابله با آنها را نداشته باشند.
این شامل نگرانی در مورد اینکه آیا LMMها با مقررات موجود، از جمله در مورد حفاظت از داده ها مطابقت دارند یا خیر – و این واقعیت که آنها اغلب توسط غول های فناوری، به دلیل منابع قابل توجه مورد نیاز، توسعه می یابند، می شود و بنابراین می تواند تسلط آن شرکت ها را نشان دهد.
این راهنما توصیه می کند که LMM ها نه تنها توسط دانشمندان و مهندسان، بلکه با مشارکت متخصصان پزشکی و بیماران توسعه داده شوند.
WHO همچنین هشدار داده است که LMM ها در برابر خطرات امنیت سایبری آسیب پذیر هستند که می تواند اطلاعات بیمار یا حتی قابلیت اطمینان ارائه مراقبت های بهداشتی را به خطر بیندازد.
این بیانیه میگوید که دولتها باید یک تنظیمکننده برای تأیید استفاده از LMM در مراقبتهای بهداشتی تعیین کنند و باید ممیزیها و ارزیابیهای تأثیر انجام شود.
این داستان های برتر را امروز نیز بخوانید:
سامسونگ در مقابل اپل! سامسونگ سری گلکسی اس 24 را با ویژگیهای هوش مصنوعی برای ایجاد تسلط بر بازار معرفی کرد. آیا پس از شکست مقابل اپل در سال 2023 می تواند تاج و تخت گوشی های هوشمند را پس بگیرد؟ ببینید سامسونگ چگونه می خواهد اپل را شکست دهد.
سامسونگ گلکسی اس 24 معرفی شد! جدیدترین گوشی های هوشمند پرچمدار سامسونگ با ویژگی های ارتقا یافته در رویداد Galaxy Unpacked در کالیفرنیا معرفی شدند. این گوشی با آیفون 15 اپل رقابت خواهد کرد. مقایسه مشخصات Samsung Galaxy S24 و iPhone 15 را بررسی کنید. تفاوت آن را با رقیب برتر خود در اینجا بیاموزید.
روبات های “درست”! موکسی به قد یک خرس عروسکی و سرشار از هوش مصنوعی مولد، قادر است با کودکان ارتباط برقرار کند، برای آنها داستان بگوید، درس ریاضی بدهد و حرکات رقص دو دستی را انجام دهد. آیا میخواهید بیشتر بدانید؟ اینجا را بخوانید.