OpenAI چتجیپیتی را برای تصمیمات سلامتی با وجود نگرانیهای دقت تبلیغ میکند
تریل دیکی 14/12/1404 01:21
OpenAI استفاده خانوادهای از ChatGPT برای تصمیمات درمان سرطان را برجسته میکند، اما مطالعات اخیر نشان میدهد ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در دقت و ایمنی دارند.
OpenAI این هفته مطالعه موردی منتشر کرد که خانوادهای را نشان میدهد که از ChatGPT برای آمادهسازی تصمیمات درمان سرطان پسرشان استفاده کردهاند و چتبات مبتنی بر هوش مصنوعی را به عنوان مکمل راهنمایی پزشک معرفی میکند. زمانبندی با توجه به شواهد فزاینده مبنی بر اینکه ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در قابلیت اطمینان دارند، سوالبرانگیز است.
این مطلب تبلیغاتی که در 13/12/1404 منتشر شد، توضیح میدهد که چگونه والدین در کنار تیم انکولوژی فرزندشان از ChatGPT استفاده کردهاند. OpenAI این موضوع را به عنوان استفاده مسئولانه از هوش مصنوعی معرفی میکند - مکمل کردن به جای جایگزینی تخصص پزشکی.
اما این روایت خوشبینانه با یافتههای تحقیقاتی ناراحتکننده برخورد میکند. مطالعهای که در Nature Medicine منتشر شد و محصول "ChatGPT Health" خود OpenAI را بررسی کرد، مشکلات اساسی در دقت، پروتکلهای ایمنی و تعصب نژادی در توصیههای پزشکی یافت. این یک هشدار جزئی برای ابزاری که ممکن است افراد هنگام تصمیمگیریهای زندگی و مرگ درباره درمان سرطان از آن استفاده کنند، نیست.
مشکل دقت
تحقیقات مستقل در بهترین حالت تصویری متفاوت ارائه میدهند. مطالعه Mass General Brigham نشان داد ChatGPT تقریباً 72٪ دقت در تخصصهای پزشکی به دست آورد که برای تشخیصهای نهایی به 77٪ میرسد. خوب به نظر میرسد تا زمانی که در نظر بگیرید چه چیزی در خطر است - آیا سوار هواپیمایی میشوید که 23٪ احتمال دارد خلبان خطای حیاتی انجام دهد؟
شرکت هوش مصنوعی بهداشت و درمان Atropos اعداد حتی نگرانکنندهتری ارائه داد: مدلهای زبان بزرگ عمومی تنها 2٪ تا 10٪ از مواقع اطلاعات مرتبط بالینی را برای پزشکان فراهم میکنند. شکاف بین «گاهی مفید» و «به اندازه کافی قابل اعتماد برای تصمیمات سرطان» وسیع باقی میماند.
انجمن پزشکی آمریکا صریح صحبت کرده است. این سازمان علیه استفاده پزشکان از ابزارهای مبتنی بر LLM برای کمک به تصمیمگیری بالینی توصیه میکند و نگرانیهای دقت و نبود دستورالعملهای استاندارد را ذکر میکند. وقتی AMA به پزشکان میگوید دور بمانند، بیماران احتمالاً باید توجه کنند.
کارهایی که ChatGPT نمیتواند انجام دهد
چتباتهای مبتنی بر هوش مصنوعی نمیتوانند معاینات فیزیکی انجام دهند. آنها نمیتوانند زبان بدن بیمار را بخوانند یا سوالات پیگیری شهودی که انکولوژیستهای با تجربه طی دههها توسعه میدهند را بپرسند. آنها میتوانند توهم داشته باشند - تولید اطلاعاتی که به نظر اطمینانبخش است اما کاملاً ساختگی است.
نگرانیهای حریم خصوصی لایه دیگری را اضافه میکنند. هر علامت، هر ترس، هر جزئیات درباره سرطان کودک که در ChatGPT تایپ میشود تبدیل به دادهای میشود که کاربران کنترل محدودی بر آن دارند.
مطالعه موردی OpenAI تأکید میکند که خانواده «در کنار راهنمایی متخصص پزشکان» کار کردهاند. این شرط اهمیت دارد. خطر این نیست که بیماران آگاه سوالات بهتری بپرسند - بلکه این است که افراد آسیبپذیر در بحران احتمالاً بیش از حد به ابزاری تکیه کنند که بیشتر از آنچه بازاریابی نشان میدهد اشتباه میکند.
برای سرمایهگذاران کریپتو که جاهطلبیهای سازمانی OpenAI را تماشا میکنند، فشار بهداشت و درمان نشاندهنده گسترش تهاجمی به بخشهای پرخطر است. اینکه آیا تنظیمکنندهها شرکتهای هوش مصنوعی را که ابزارهای تصمیمگیری پزشکی با مشکلات دقت مستند را تبلیغ میکنند تحمل خواهند کرد، سوالی باز است که به سمت 1405 میرود.
منبع تصویر: Shutterstock- openai
- chatgpt
- بهداشت و درمان مبتنی بر هوش مصنوعی
- هوش مصنوعی پزشکی
- فناوری سلامت


