تشخیص پزشکی هوش مصنوعی قابل اعتماد است؟
به گزارش وبلاگ هوانورد، شاید اگر در خصوص سلامتی خود از هوش مصنوعی سوال کنید، بهتر از مراجعه به سایت های مربوط به اطلاعات دارو و درمان باشد، اما باید احتیاط کنید.
پریسا عباسی: دانشمندان علوم کامپیوتر شاغل در گوگل و DeepMind(یک شرکت هوش مصنوعی) نسخه ای از یک برنامه پزشک بالینی هوش مصنوعی ارائه دادند که می تواند با توجه به شرایط و علائم داده شده، و بکارگیری یک مدل زبانی بزرگ به نام PaLM، بیماری را تشخیص دهد.
بر اساس پیش مقاله اصلی منتشر شده به وسیله این گروه، مدل آنها توانست در یک آزمون آزمایشی که حاوی سوالاتی از آزمون مجاز پزشکی ایالات متحده بود، و با توجه به ادعای آنها مبنی بر پیشرفت 17 درصدی نرم افزارهای پیشرفته قبلی، 67.6٪ امتیاز کسب کند. نتیجه کار یک نسخه از این مدل، با کار پزشکان انسانی در یک سطح قرار داشت. اما هشدارهای زیادی در خصوص این الگوریتم و موارد مشابه آن وجود دارد.
این مدل بر اساس مجموعه ای از اطلاعات که مبنی بر بیش از 3000 سوال پزشکی رایج جستجو شده (در اینترنت) و بعلاوه اطلاعات 6 پایگاه داده باز مختص به پرسش و پاسخ های پزشکی، که شامل معاینات پزشکی و تحقیقات در خصوص موارد پزشکی است، ترتیب داده شده است. محققان در مرحله آزمایشی، پاسخ های دریافتی از دو نسخه از هوش مصنوعی را با پزشکان انسان مقایسه کردند و این پاسخ ها را از نظر دقت، واقعی بودن، مرتبط بودن، مفید بودن، سازگاری با نظریات جامع علمی کنونی، ایمنی و جهت گیری آنالیز کردند.
آدریانا پورتر فلت، که یک مهندس نرم افزار است و در گوگل کروم کار می نماید و در این مطالعه شرکت نداشته است، در توییتر گفت که نسخه ای از این مدل که همچون پزشکان به سوالات پزشکی مشابهی پاسخ دهد، باید دارای یک ویژگی باشد که به آن اضافه گردد و آن تنظیم دستورالعمل است. این کار یک فرآیند انسانی است و از آنجایی که کاری پر زحمت است، ارزش این همه زحمت را ندارد. این شامل اصلاح دقیق عبارات پرسش هاست که به روش خاصی هستند و به هوش مصنوعی اجازه می دهد تا اطلاعات صحیح را بازیابی کند.
محققان در این مقاله نوشتند که: این مدل به طرز دلگرم نماینده ای عمل می نماید، اما هنوز در سطح پایین تری نسبت به پزشکان واقع شده است. و اینکه: درک این مدل در زمینه پزشکی، بازیابی و یادآوری دانش و استدلال پزشکی، با مدل تحقیقاتی و تنظیم سریع دستورالعمل ها بهبود خواهد یافت. مثلا هر نسخه از هوش مصنوعی در مقایسه با پاسخ های انسانی، اطلاعات مهمی را از دست داده بود و شامل محتوای نادرست و نامناسبی بود.
مدل های گفتاری در حال بهتر شدن در توانایی تجزیه اطلاعات پیچیده هستند. و به نظر می رسد که آنها با وظایفی که احتیاج به دانش و استدلال علمی دارند، خوب عمل می نمایند. چندین مدل کوچک از جمله SciBERT و PubMedBERT برای درک متونی که مملو از اصطلاحات تخصصی هستند، مرزهای مدل های زبانی را جابجا نموده اند.
اما در زمینه های زیست پزشکی و علمی، عوامل پیچیده و ناشناخته بسیار زیادی وجود دارند. و اگر هوش مصنوعی اشتباه کند چه کسی مسئولیت آن را به عهده خواهد گرفت؟ از آنجایی که اطلاعات بسیاری از الگوریتم ها مانند یک جعبه سیاه کار می نماید، آیا می توان منبع خطا را شناسایی و آن را ردیابی کرد؟ علاوه بر این، الگوریتم ها(که شامل دستورالعمل های ریاضی هستند که به وسیله برنامه نویسان به کامپیوتر داده می شوند)، ناقص هستند و احتیاج به داده های آموزشی کامل و صحیح دارند که این موضوع در هر شرایط و در همه جا در دسترس نخواهد بود. به علاوه خرید و سازماندهی داده های مرتبط با سلامت می تواند گران باشد.
پاسخ صحیح به پرسش های یک آزمون استاندارد چندگزینه ای، نشانه هوش نیست. و ممکن است توانایی تحلیلی کامپیوتر، در روبرو با یک مورد پزشکی بالینی در دنیای واقعی، بسیار پایین باشد. بنابراین با اینکه این آزمایش ها از نظر تئوری جالب به نظر می رسند، اما هنوز بیشتر این هوش های مصنوعی آمادگی لازم را ندارند تا به طور کامل بکار گرفته شوند. پروژه سلامت هوش مصنوعی IBM واتسون را در نظر بگیرید. این پروژه با وجود میلیون ها دلار سرمایه گذاری، همچنان مسائل متعددی داشت و به میزان کافی کاربردی و انعطاف پذیر نبود و نهایتا تجزیه و اجزاء آن فروخته شدند.
گوگل و DeepMind به خوبی محدودیت های این فناوری را می شناسند. آنها در مقاله خود نوشتند برای اینکه این مدل واقعا مفید باشد باید در بعضی از زمینه ها توسعه و بهبود پیدا نمایند. زمینه هایی نظیر یافتن پاسخ ها در منابع معتبر و به روز پزشکی، و توانایی تشخیص و برقراری ارتباط موثر و مفید با بیمار یا پزشک معالج.
منبع: پاپ ساینس
5858
منبع: خبرآنلاین