چرا هوش مصنوعی قابل اعتماد نیست؟

در تحقیقی که نتایج توسط مجلات کالج پزشکان آمریکا منتشر شد، پرونده مردی ۶۰ ساله که پس از درخواست مشاوره رژیم غذایی از چت جی پی تی، دچار یک اختلال روانی غیرمعمول شده بود مورد بررسی قرار گرفت.

هوش مصنوعی

همشهری آنلاین – آرش نهاوندی: داستان از این قرار است که مردی به اروژانس مراجعه کرده بود که دچار توهمات شنوایی و بینایی شده و ادعا کرده بود که همسایه‌اش او را مسموم کرده است. او که دچار کم آبی شده بود پس از یک تلاش ناکام برای فرار از درمانگاه، با مایعات و الکترولیت‌ها مورد درمان قرار گرفت. او پس ازدرمان اولیه توضیح داد که یک رژیم غذایی بسیار محدود گرفته و سعی کرده بود نمک را به طور کامل حذف کند. او تمام نمک غذای خود را با سدیم بروماید که اغلب به عنوان ضد تشنج سگ استفاده می‌شود، جایگزین کرده بود. او در ادامه توضیح داد که این کار را با استناد از اطلاعاتی که از چت جی پی تی دریافت کرده بود، انجام داده است.

اشتباه مرگبار

او پس از بهبودی بیشتر اطلاعاتی که از چت جی پی تی به دست آورده بود گفت که پس از مطالعه در مورد اثرات منفی کلرید سدیم یا نمک طعام بر سلامت فرد، از اینکه فقط می‌توانست مطالب مربوط به کاهش سدیم از رژیم غذایی خود را پیدا کند، شگفت‌زده شد. او با الهام از سابقه تحصیل در رشته تغذیه در دانشگاه، تصمیم گرفت یک آزمایش شخصی برای حذف کلرید از رژیم غذایی خود انجام دهد. او پس از مشاوره با چت جی پی تی به مدت ۳ ماه، کلرید سدیم را با سدیم برومید جایگزین کردد. در این سایت خوانده بود که کلرید را می‌توان با برومید جایگزین کرد، این در حالی است که سدیم برومید بیشتر به عنوان داروی سگ کاربرد دارد و همچنین برای اهداف نظافت منزل نیز به کار می‌رود. البت هسدیم بوومید کابردهای مختلفی دارد و از پر مصرف‌ترین نمک‌های برومیدی محسوب می‌شود. این ماده شیمیایی علاوه بر صنعت نفت و گاز در داروسازی و پزشکی نیز به عنوان ضد انعقادف ضد تشنج به کار می‌رود.

پارانویا و توهمات

این اشتباه چت پی تی عاقبت دردناکی را برای این مرد ۶۰ ساله رغم زد. در بخشی از مقاله مطالعه‌ای که روی این مرد انجام شده وضعیت وی در ساعات اولیه پذیرش در اورژانس اینچنین تشریح شده است: در ۲۴ ساعت اول بستری، او دچار پارانویا و توهمات شنیداری و دیداری فزاینده‌ای شد که پس از تلاش برای فرار، منجر به بستری شدن اجباری در بیمارستان روانی به دلیل ناتوانی شدید شد.

پزشکان به این نتیجه رسیدند که این مرد از برومیسم یا مسمومیت با برومید رنج می‌برد، بیماری‌ که امروزه نادر است اما در اوایل قرن بیستم شایع‌تر بوده است. این تحقیق خاطرنشان کرد که برومید در آن زمان در چندین داروی بدون نسخه یافت می‌شد و تا ۸ درصد از پذیرش‌های روانپزشکی مرتبط با برومیسم در آن زمان را تشکیل می‌داد.

انتشار اخبار این مطالعه باعث ایجاد نگرانی‌های جدی درباره احتمال ارائه اطلاعات اشتباه توسط هوش مصنوعی به ویژه در عرصه ‌های پزشکی و درمان شده است. اما آیا این نگرانی‌ها با واقعیت آنچه در حال رخ دادن است، انطباق دارد یا صرفا نگرانی‌هایی است که درباره یک اتفاق موردی بروز پیدا کرده.

اشکالات هوش مصنوعی

چرا هوش مصنوعی قابل اعتماد نیست؟

اگرچه مشاوره‌های پزشکی مبتنی بر هوش مصنوعی و بررسی آنلاین علائم، مزایای بالقوه‌ای را ارائه می‌دهند، اما دارای معایب قابل توجهی نیز هستند. این موارد شامل خطاهای احتمالی در تشخیص، عدم وجود ارتباط انسانی، نگرانی‌های اخلاقی و خطرات مربوط به حریم خصوصی داده‌ها می‌شود. علاوه بر این، جستجوی آنلاین علائم می‌تواند منجر به خود تشخیصی بر اساس اطلاعات ناقص یا نادرست شود که به طور بالقوه باعث نگرانی غیرضروری یا تأخیر در مراقبت‌های پزشکی مناسب می‌شود. در این بخش از مطلب به تشریح برخی از خطاهای هوش مصنوعی می‌‍پردازیم.

اطلاعات نادرست یا گمراه‌کننده

سیستم‌های هوش مصنوعی، از جمله بررسی‌کننده‌های علائم و چت‌بات‌ها، گاهی اوقات می‌توانند اطلاعات نادرست یا ناقصی ارائه دهند که منجر به تشخیص نادرست یا خوددرمانی نامناسب می‌شود.

فقدان همدلی و ارتباط انسانی

هوش مصنوعی فاقد همدلی و درک یک پزشک انسانی است که می‌تواند برای راحتی و اعتماد بیمار بسیار مهم باشد. این امر می‌تواند به ویژه در موقعیت‌های حساس یا هنگام مواجهه با مسائل پیچیده پزشکی اهمیت داشته باشد.

نگرانی‌های اخلاقی

ابزارهای مبتنی بر هوش مصنوعی، سوالات اخلاقی در مورد حریم خصوصی داده‌ها، سوگیری الگوریتمی و پاسخگویی را مطرح می‌کنند. اگر یک هوش مصنوعی اشتباه کند، تعیین اینکه چه کسی مسئول است، دشوار است.

عوارض وابستگی به هوش مصنوعی

وابستگی بیش از حد به هوش مصنوعی می‌تواند بیماران را از جستجوی مراقبت‌های پزشکی مناسب منصرف کند و می‌تواند منجر به کاهش تعامل انسان با پزشکان و متخصصان مراقبت‌های بهداشتی شود.

خطرات زیر پا گذاشتن حریم خصوصی

سیستم‌های هوش مصنوعی نیاز به دسترسی به حجم زیادی از داده‌های بیمار دارند که نگرانی‌هایی را در مورد نقض داده‌ها و سوءاستفاده از اطلاعات حساس ایجاد می‌کند.

سوء تعبیر و اضطراب

جستجوهای آنلاین می‌تواند منجر به سوء تعبیر علائم و نگرانی بی‌مورد شود. بیماران ممکن است بر اساس اطلاعات محدود، واکنش بیش از حد به علائم رایج نشان دهند یا تشخیص اشتباه بدهند.

بیشتر بخوانید:

  • هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!
  • چطور هوش مصنوعی وسائل پزشکی را دگرگون می‌کند

کد خبر 969800 منبع: همشهری آنلاین

  • ویروس آنفلوانزای پرندگان از راه هوا هم منتقل می‌شود

  • چرا هوش مصنوعی قابل اعتماد نیست؟

  • فوری؛ نخستین واکنش ایران به مسیر ترامپ | موضع ایران درباره کریدور زنگزور چیست؟

  • اشتباه بزرگ پرسپولیس؛ هافبک سرخ‌ها به گل‌گهر پیوست

  • نماینده مجلس: مردم در زمان دولت آیت الله رئیسی کم کم قطع برق را فراموش می‌کردند | ویدئو

  • مهدی تاج: چنین فردی مربی نیست مرباست!

  • جدایی ۴ بازیکن از پرسپولیس | دو خرید گران‌قیمت هم رفتنی شدند؟

  • زمان خروج ماموران موساد از ایران؛ اسرائیل برای جنایت در ایران چگونه مزدور استخدام کرد؟

  • مسیر ترامپ؛ زنگ خطر برای تهران به صدا در آمد

  • زمان خروج ماموران موساد از ایران؛ اسرائیل برای جنایت در ایران چگونه مزدور استخدام کرد؟

  • اشتباه بزرگ پرسپولیس؛ هافبک سرخ‌ها به گل‌گهر پیوست

  • فوری؛ نخستین واکنش ایران به مسیر ترامپ | موضع ایران درباره کریدور زنگزور چیست؟

  • آغاز بارندگی ها در ایران | کاهش دما شروع شد

  • جدایی ۴ بازیکن از پرسپولیس | دو خرید گران‌قیمت هم رفتنی شدند؟

  • بدترین کابوس ترامپ منم ! + عکس

  • نوشدارو برای صنعت دارو! | چطور می‌توان صادرات دارو را تقویت کرد؟

  • «هیتلر زمان» در میدان فلسطین تهران دیده شد | عکس

  • خودروهای جدید سایپا به زودی به بازار می آید + اسامی خودروها

  • رهبر انقلاب:‌ هربار به این تابلو نگاه کرده‌ام، گریه کرده‌ام…

  • تشخیص دقیق و سریع بیماری‌ها، کشف داروهای جدید و سرعت بخشیدن به درمان‌ با الگوریتم‌های پیشرفته

  • چگونه از هوش مصنوعی پاسخ دقیق بگیریم؟

  • هوش مصنوعی، رقیب یا رفیق پزشکان؟

Leave a Reply

Your email address will not be published. Required fields are marked *