بدون دیدگاه

پیمایش در میدان مین هوش مصنوعی در مراقبت های بهداشتی: ایجاد تعادل بین نوآوری با دقت

در مقاله اخیر “حقایق سریع” منتشر شده در مجله BMJ، محققان در مورد پیشرفت‌های اخیر در هوش مصنوعی مولد (AI)، اهمیت فناوری در جهان امروز، و خطرات بالقوه‌ای که باید قبل از تبدیل شدن مدل‌های زبانی بزرگ (LLM) مانند ChatGPT به منابع قابل اعتماد اطلاعات واقعی مورد توجه قرار گیرند، بحث می‌کنند. آنها را باور کنید

BMJ Fast Facts: کیفیت و ایمنی اطلاعات سلامت تولید شده توسط هوش مصنوعی.  اعتبار تصویر: Le Panda / Shutterstockحقایق سریع BMJ: کیفیت و ایمنی اطلاعات سلامت تولید شده توسط هوش مصنوعی. اعتبار تصویر: Le Panda / Shutterstock

هوش مصنوعی مولد چیست؟

«هوش مصنوعی مولد (AI)» زیرمجموعه‌ای از مدل‌های هوش مصنوعی است که محتوای وابسته به زمینه (متن، تصاویر، صدا و ویدیو) ایجاد می‌کند و اساس مدل‌های زبان طبیعی را تشکیل می‌دهد که دستیاران هوش مصنوعی (دستیار گوگل، آمازون الکسا و… Siri) و برنامه های بهره وری از جمله ChatGPT و Grammarly AI. این فناوری یکی از سریع‌ترین بخش‌های در حال رشد در محاسبات دیجیتال را نشان می‌دهد و پتانسیل پیشرفت قابل توجهی در جنبه‌های مختلف جامعه، از جمله مراقبت‌های بهداشتی و تحقیقات پزشکی را دارد.

متأسفانه، پیشرفت‌ها در هوش مصنوعی مولد، به‌ویژه مدل‌های زبان بزرگ (LLM) مانند ChatGPT، به مراتب از بررسی‌های اخلاقی و ایمنی پیشی گرفته است و احتمال عواقب شدید، تصادفی و عمدی (مخفف) را ایجاد می‌کند. تحقیقات تخمین می‌زند که بیش از ۷۰ درصد مردم از اینترنت به‌عنوان منبع اصلی اطلاعات بهداشتی و پزشکی خود استفاده می‌کنند و افراد بیشتری هر روز با پرسش‌های خود از LLM‌هایی مانند Gemini، ChatGPT و Copilot استفاده می‌کنند. مقاله حاضر بر سه جنبه آسیب‌پذیر هوش مصنوعی، یعنی خطاهای هوش مصنوعی، اطلاعات نادرست بهداشتی و نگرانی‌های مربوط به حریم خصوصی تمرکز دارد. تلاش‌های رشته‌های جدید، از جمله ایمنی هوش مصنوعی و هوش مصنوعی اخلاقی، در رسیدگی به این آسیب‌پذیری‌ها را برجسته می‌کند.

خطاهای هوش مصنوعی

خطاها در پردازش داده ها یک چالش رایج در تمام فناوری های هوش مصنوعی است. همانطور که مجموعه داده‌های ورودی گسترده‌تر می‌شوند و خروجی‌های مدل (متن، صدا، تصاویر یا ویدیو) پیچیده‌تر می‌شوند، شناسایی اطلاعات اشتباه یا گمراه‌کننده به طور فزاینده‌ای چالش‌برانگیزتر می‌شود.

“پدیده “توهم AI” با استفاده گسترده از چت ربات های هوش مصنوعی (به عنوان مثال، ChatGPT) که توسط LLM ها ارائه می شود، برجسته شده است. در زمینه اطلاعات سلامت، توهمات هوش مصنوعی به ویژه نگران کننده است زیرا افراد ممکن است اطلاعات بهداشتی نادرست یا گمراه کننده ای را از LLM ها دریافت کنند. به عنوان واقعیت ارائه می شود.»

برای اعضای غیردولتی جامعه که قادر به تشخیص اطلاعات واقعی و نادرست نیستند، این اشتباهات می توانند بسیار سریع و پرهزینه شوند، به ویژه در موارد اطلاعات پزشکی اشتباه. با توجه به تحقیقات فزاینده ای که با استفاده از LLM و هوش مصنوعی مولد برای تجزیه و تحلیل داده ها انجام می شود، حتی متخصصان پزشکی آموزش دیده نیز ممکن است از این خطاها رنج ببرند.

مطب پیشنهادی :
بهترین روش پیشگیری از سرماخوردگی

خوشبختانه، استراتژی‌های فن‌آوری متعددی با هدف کاهش خطاهای هوش مصنوعی در حال حاضر در حال توسعه هستند که امیدوارکننده‌ترین آن‌ها شامل توسعه مدل‌های هوش مصنوعی مولد است که خود را بر اساس اطلاعات به دست آمده از منابع معتبر و معتبر “پایه” می‌دهند. روش دیگر گنجاندن «عدم قطعیت» در نتیجه مدل هوش مصنوعی – هنگام ارائه یک خروجی است. این مدل همچنین درجه اطمینان خود را در مورد اعتبار اطلاعات ارائه شده ارائه می دهد، بنابراین به کاربر اجازه می دهد تا در موارد عدم قطعیت بالا به مخازن اطلاعات معتبر مراجعه کند. برخی از مدل‌های هوش مصنوعی مولد از قبل نقل‌قول‌ها را به عنوان بخشی از نتایج خود گنجانده‌اند، در نتیجه کاربر را تشویق می‌کنند تا قبل از پذیرش خروجی مدل به‌عنوان ارزش اسمی، خود را بیشتر آموزش دهند.

اطلاعات غلط بهداشتی

اطلاعات نادرست از توهمات هوش مصنوعی متمایز است زیرا دومی تصادفی و سهوی است، در حالی که اولی عمدی و بدخواهانه است. در حالی که روش اطلاع‌رسانی نادرست به قدمت خود جامعه بشری است، هوش مصنوعی مولد یک پلتفرم بی‌سابقه برای تولید «اطلاعات نادرست متنوع، با کیفیت بالا و هدفمند در مقیاس» است که تقریباً هیچ هزینه مالی برای بازیگر مخرب ندارد.

“یک گزینه برای جلوگیری از اطلاعات نادرست بهداشتی تولید شده توسط هوش مصنوعی شامل تنظیم دقیق مدل‌ها برای همسویی با ارزش‌ها و ترجیحات انسانی، از جمله جلوگیری از ایجاد پاسخ‌های مضر یا نادرست شناخته شده است. یک جایگزین، ساخت یک مدل تخصصی (جدا از مدل هوش مصنوعی مولد) است. برای شناسایی درخواست ها و پاسخ های نامناسب یا مضر.”

در حالی که هر دو تکنیک فوق در جنگ علیه اطلاعات نادرست قابل اجرا هستند، آزمایشی و مدل‌دار هستند. برای جلوگیری از رسیدن داده های نادرست حتی به مدل برای پردازش، ابتکاراتی مانند واترمارک دیجیتال که برای اعتبارسنجی داده های دقیق و نمایش محتوای تولید شده توسط هوش مصنوعی طراحی شده است، در حال حاضر در حال انجام است. به همان اندازه مهم، ایجاد آژانس‌های هوش مصنوعی قبل از اینکه بتوان بدون چون و چرا به عنوان یک سیستم تحویل اطلاعات قوی اعتماد کرد، لازم است.

مطب پیشنهادی :
علائم صفراوی مزاج بودن

حریم خصوصی و تعصب

داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی مولد، به‌ویژه داده‌های پزشکی، باید غربالگری شوند تا اطمینان حاصل شود که هیچ اطلاعات قابل شناسایی در آن گنجانده نشده است، در نتیجه به حریم خصوصی کاربران و بیمارانی که مدل‌ها بر اساس داده‌های آنها آموزش دیده‌اند، احترام گذاشته شود. برای داده‌های جمع‌سپاری، مدل‌های هوش مصنوعی معمولاً شامل شرایط و ضوابط حفظ حریم خصوصی می‌شوند. شرکت کنندگان در مطالعه باید اطمینان حاصل کنند که از این شرایط پیروی می کنند و اطلاعاتی را ارائه نمی دهند که بتوان آن را به داوطلب مورد نظر ردیابی کرد.

سوگیری خطر ارثی مدل‌های هوش مصنوعی است که داده‌ها را بر اساس مواد منبع آموزشی مدل تغییر می‌دهند. بیشتر مدل‌های هوش مصنوعی بر روی مجموعه داده‌های گسترده، که معمولاً از اینترنت به دست می‌آیند، آموزش می‌بینند.

“علیرغم تلاش های توسعه دهندگان برای کاهش سوگیری ها، شناسایی و درک کامل سوگیری های LLM های قابل دسترس به دلیل عدم شفافیت در مورد داده ها و فرآیند آموزشی چالش برانگیز است. در نهایت، استراتژی هایی با هدف به حداقل رساندن این خطرات شامل اعمال اختیار بیشتر در انتخاب است. داده‌های آموزشی، حسابرسی کامل خروجی‌های هوش مصنوعی مولد، و برداشتن گام‌های اصلاحی برای به حداقل رساندن سوگیری‌های شناسایی‌شده.»

نتیجه گیری

مدل‌های هوش مصنوعی مولد، که محبوب‌ترین آنها شامل LLM‌هایی مانند ChatGPT، Microsoft Copilot، Gemini AI و Sora است، برخی از بهترین پیشرفت‌های بهره‌وری انسان در عصر مدرن را نشان می‌دهند. متأسفانه، پیشرفت‌ها در این زمینه‌ها به مراتب از بررسی‌های اعتبار پیشی گرفته است، که منجر به احتمال خطا، اطلاعات نادرست و سوگیری می‌شود، که می‌تواند منجر به عواقب شدید، به‌ویژه هنگام بررسی مراقبت‌های بهداشتی شود. مقاله حاضر برخی از خطرات هوش مصنوعی مولد را در شکل فعلی آن خلاصه می کند و تکنیک های توسعه نیافته برای کاهش این خطرات را برجسته می کند.

مطب پیشنهادی :
این علائم خبر از کمبود پتاسیم بدن میدهند

مرجع مجله:

  • سوریچ، ام جی، منز، بی دی، و هاپکینز، AM (2024). کیفیت و ایمنی اطلاعات سلامت تولید شده توسط هوش مصنوعی در BMJ (ص. q596). BMJDOI – 10.1136/bmj.q596، https://www.bmj.com/content/384/bmj.q596

Source link

محتوای پیشنهادی

پست های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.

فهرست