به گزارش درمانگر، اگر این روزها شما هم جزو میلیونها فردی هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا سایر چتباتها میروید، بهتر است دست نگه دارید. مطالعه جدید محققان دانشگاه آکسفورد نشان میدهد که اعتماد به هوش مصنوعی برای تصمیمگیریهای پزشکی میتواند عواقب خطرناکی داشته باشد.
هوش مصنوعی و ماجرای تشخیصهای ناسازگار
دیجیتاتو براساس گزارش BBC، محققان دانشگاه آکسفورد میگویند مدلهای هوش مصنوعی در زمینه پزشکی پاسخهای ناسازگار و گاهی نادرست میدهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار میدهد که پرسیدن علائم بیماری از چتباتها میتواند خطرناک باشد.
در این پژوهش که روی ۱۳۰۰ نفر انجام شد، شرکتکنندگان در سناریوهای مختلف (مانند سردرد شدید یا خستگی مداوم پس از زایمان) قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روشهای سنتی (مانند جستجو در گوگل) استفاده میکردند، نگرفتند.
خطرهایی که باید بدانید
در این مطالعه پژوهشگران متوجه یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی شدند. کاربران نمیدانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد. از سوی دیگر، پاسخهای هوش مصنوعی به شدت به نحوه جملهبندی سؤال وابسته بود. محققان میگویند: «این تحلیل نشان داد که تعامل با انسانها حتی برای مدلهای هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»
برخلاف تستهای استاندارد پزشکی که هوش مصنوعی در آنها نمره قبولی میگیرد، در دنیای واقعی و در تعامل با افراد غیرمتخصص، این سیستمها دچار لغزش میشوند. بنابراین، تکیه بر آنها برای تصمیمگیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.
امنیت بیماران زیر تیغ
دکتر «امبر چایلدز» (Amber W. Childs) از دانشگاه ییل اشاره میکند که چون چتباتها با دادههای فعلی پزشکی آموزش دیدهاند، همان سوگیریها و تعصباتی را که دههها در پزشکی وجود داشته است، تکرار میکنند. او میگوید: «یک چتبات فقط به اندازه پزشکان باتجربهای که دادههایش را تولید کردهاند خوب است، که آن هم کامل نیست.»
البته برخی از کارشناسان نیز معتقدند که نسخههای تخصصی پزشکی که اخیراً توسط شرکتهایی مانند OpenAI و آنتروپیک عرضه شدهاند، ممکن است نتایج متفاوتی داشته باشند. هدف باید بهبود تکنولوژی با قوانین نظارتی شفاف و گاردریلهای پزشکی باشد تا امنیت بیماران تضمین شود.


بدون دیدگاه