مقدمه
با پیشرفت فناوری هوش مصنوعی، میتوان از آن در حوزه پرستاری و مامایی بهمنظور بهبود تصمیمگیری، ارائه مراقبت بهتر به بیماران و بهبود عملکرد سیستم بهداشتی استفاده کرد [1]. ازاینرو، کاربرد هوش مصنوعی در این حوزهها بهعنوان یک رویکرد مؤثر و نوین در ارائه خدمات مراقبتی مورد توجه قرار گرفته است [2]. همچنین، هوش مصنوعی میتواند برای پشتیبانی از تصمیمگیری بالینی پرستاران در موقعیتهای پیچیده مراقبتی یا انجام وظایفی همانند فرآیند مستندسازی مورد استفاده قرار گیرد [3]. دیجیتالی شدن و توسعه فناوری، هوش مصنوعی را قادر ساخته است تا از ارائه مراقبتهای بهداشتی و پرستاری بهتر پشتیبانی کند. فناوریهای هوش مصنوعی، سیستمهایی هستند که رفتار هوشمندانهای از خود نشان میدهند و با تجزیهوتحلیل محیط خود میتوانند وظایف مختلفی را با درجاتی از خودمختاری برای دستیابی به اهداف خاص انجام دهند [4].
فناوریهای هوش مصنوعی برای مدتزمان طولانی در پرستاری مورد استفاده قرار گرفتهاند، اگرچه بهعنوان هوش مصنوعی شناخته نمیشدهاند. باوجوداین موضوع، کاربرد هوش مصنوعی در مراقبتهای بهداشتی باتوجهبه تحقیقات و مباحث جدید میتواند بیش از پیش مورد توجه قرار گیرد [5]. علیرغم افزایش تحقیقات در کاربرد فناوریهای دیجیتال درجهت افزایش کیفیت مراقبتهای پرستاری، از هوش مصنوعی در مراقبتهای پرستاری کمتر استفاده میشود. در سالهای اخیر، شاهد افزایش تحقیقاتی بودهایم که بر احتمال توسعه هوش مصنوعی در مراقبتهای پرستاری تأکید کرده است [6]. از هوش مصنوعی میتوان برای برنامهریزی و زمانبندی بهتر و خودکار و همچنین برای بهبود کارایی روشهای انسانی مانند ایجاد فهرست کارکنان پرستاری یا تصمیمهای زمانبندی مربوط به مراقبت و برای حمایت از پرستاران در وظایفی که از راه دور در تعامل مستقیم با بیمار وظایف خود را انجام میدهند، استفاده کرد [7].
علاوهبراین، هوش مصنوعی بهعنوان ابزاری معرفی شده است که میتواند ارائه مراقبتهای بهداشتی را تغییر دهد و باعث ارتقای سلامتی در بیماران گردد؛ درنتیجه، با رشد هوش مصنوعی، این ابزار وارد سیستم مراقبت بهداشت شده و پرستاران نیز باید متناسب با این رشد بهروز شوند [8]. تاکنون، مطالعات اندکی در مورد ارتباط عملی و کاربرد سیستمهای هوش مصنوعی با الزامات خاص در مراقبتهای پرستاری انجام شده است. هوش مصنوعی میتواند به ارائه کیفیت بالا، مراقبت کارآمدتر و عادلانهتر کمک کند؛ همچنین متخصصانی که تجربه کمتری دارند را مورد حمایت قرار دهد، مانند کمک برای شناسایی نشانههای بیماریهای نادر از طریق جستوجوی گسترده در پایگاه دادهها.
از دیگر کاربردهای هوش مصنوعی در پرستاری میتوان به فناوریهای تشخیص گفتار پرستار اشاره کرد که در آن اسناد مربوط به بیمار با کمک اصطلاحات و کلیدواژههایی که در اختیار هوش مصنوعی قرار داده میشود بهسرعت در دسترس پرستار قرار میگیرد [9، 10]. استخراج میلیونها یادداشت پرستاری برای شناسایی بیماران مبتلا به سابقه سقوط یا اختلالات مصرف مواد مخدر، الکل، حمایت از برنامهریزی برای مراقبت و تشخیص خطر بیمار، از کاربردهای هوش مصنوعی در پرستاری است. پرستاران باید اطمینان حاصل کنند که یکپارچهسازی هوش مصنوعی در سیستم بهداشت بهگونهای صورت میگیرد که عاری از چالش اخلاقی باشد و با ارزشهای پرستاری اصلی مانند مراقبت مهربانانه و مراقبت کلنگر هماهنگ باشد [11].
یکی از مهمترین چالشهای اخلاقی در حوزه استفاده از هوش مصنوعی، دوراهی اخلاقی است. دوراهی اخلاقی یکی از انواع تعارضات اخلاقی است و درواقع هرگونه ناسازگاری بین انگیزه و تمایلات، روشهای تربیتی، ارزشها و عمل به تکلیف و مسئولیت اخلاقی میباشد [1]. تعارض اخلاقی، تداخل ارزشهای اخلاقی در موقعیت عمل اخلاقی و تعارض بین انگیزههای درونی و اخلاقی فرد است [12].
چالشهای اخلاقی که در استفاده از هوش مصنوعی در مراقبت پرستاری وجود دارد و باید در نظر گرفته شود شامل کمبود تماس و تعامل انسانی، محدودیت در تفسیر نیازهای بیمار، توانایی محدود هوش مصنوعی در ارائه مراقبتهای فیزیکی و جسمانی، توانایی محدود در مواجهه با شرایط پیچیده مانند تفکر انتقادی و مهارتهای تصمیمگیری، وابستگی به کیفیت دادهها، مشکلات اخلاقی مربوط به حریم خصوصی بیمار و امنیت دادهها، تأثیر بر استقلال بیمار، رضایت آگاهانه، ایمنی و شفافیت در دستورالعملها، حریم خصوصی، پاسخگویی و شفافیت [13، 14].
همچنین، هوش مصنوعی میتواند اثرات ناخواستهای در ارائه مراقبتهای بهداشتی داشته باشد. علیرغم اینکه پتانسیل توسعه عملکرد پرستاران را دارد، اما ازنظر اصول اخلاقی، نقش پرستار در استفاده از هوش مصنوعی سنگینتر خواهد شد. پرستار برای تشخیص و تفکیک دوراهیهای اخلاقی نیازمند درک دقیق از چالشهای اخلاقی میباشد تا وضعیت چالشبرانگیز موجود را مدیریت نماید. بااینحال، اگرچه ما چهار مفهوم اخلاقی مهم در پرستاری-حمایت، پاسخگویی، همکاری و مراقبت- را بررسی خواهیم کرد، اما اینها پایان فهرست مفاهیم اخلاقی مرتبط در پرستاری نیستند [15].
همچنین در پرستاران بین کیفیت زندگی کاری، اخلاقی و سابقه کاری ارتباطی وجود ندارد. بااینحال تعداد بیشتری از افرادی که سابقه کاری بیشتری داشتند کیفیت زندگی کاری، اخلاقی خود را خوب ارزیابی کردهاند [16].
درواقع با حفظ ارزشهای اخلاقی پرستاری اصلی مانند مراقبتهای پرستاری دقیق و عاری از تردید اخلاقی، از این فناوری بهدرستی استفاده نماید. برایناساس، مطالعه مروری حاضر با هدف بررسی دوراهی اخلاقی هوش مصنوعی در پرستاری انجام شد.
مواد و روشها
این مطالعه از نوع مروری نظاممند است. مراحل انجامشده عبارتاند از:
روش جستوجو
جستوجو و استخراج مطالعات وابسته به تحقیق
این مطالعه بهطور مستقل توسط دو محقق براساس اهداف تحقیق و چکلیست پریزما انجام شد. جستوجوی جامع مقالات از ابتدای ژانویه سال 2018 تا پایان آوریل سال 2025 در پایگاههای اطلاعاتی پابمد، اسکپوس، کتابخانه دیجیتال ایسیام، مدلاین، وبآوساینس و همچنین موتورهای جستوجوی پایگاه مرکز اطلاعات علمی جهاد دانشگاهی و مگیران و با استفاده از استراتژی «مش» و کلیدواژههای «اخلاق»، «هوش مصنوعی» و «پرستاری» و کلیدواژههای انگلیسی Nursing »، Artificial Intelligence،« Ethics و با استفاده از عملگرهای بولین انجام گردید. جهت افزایش روایی یافتههای مطالعه و کنترل سوگیری در ورود دادهها، فرآیند جستوجو و ارزیابی مقالات بهدقت انجام شد. مقالاتی که برای ارزیابی نهایی انتخاب شدند، پس از دسترسی به متن کامل، توسط دو نویسنده بهطور مستقل برای بررسی معیارهای ورود و خروج مورد ارزیابی قرار گرفتند. مقالاتی که دارای معیارهای ورود بودند، برای ورود به مطالعه انتخاب شدند. این فرآیند توسط فرد سومی نظارت شد.
شرایط ورود و خروج به مطالعه
معیارهای ورود شامل تمامی مقالاتی است که به بررسی هوش مصنوعی، دوراهی اخلاقی و پرستاری پرداخته و متن کامل آنها در دسترس و به زبان فارسی یا انگلیسی نگارش شده باشد. این معیارها عبارتاند از:
معیارهای ورود
مطالعات مرتبط با هوش مصنوعی و کاربرد آن در حوزه پرستاری-بهویژه در زمینه دوراهیهای اخلاقی- مطالعات پژوهشی، مرور نظاممند، مقالات تحلیلی، و گزارشهای موردی که به مسائل اخلاقی در پرستاری و فناوریهای هوش مصنوعی پرداختهاند؛
مقالات به زبان فارسی یا انگلیسی، متن کامل مقاله در دسترس باشد؛ مطالعات منتشرشده از سال 2018 تا 2025 تا بهروز بودن اطلاعات و نتایج را تضمین کند؛ مقالاتی که دادهها و شواهد تجربی را در زمینه دوراهیهای اخلاقی در استفاده از هوش مصنوعی در پرستاری ارائه میدهند.
معیارهای خروج
مقالاتی که به طور مستقیم به دوراهیهای اخلاقی در پرستاری و هوش مصنوعی نمیپردازند ؛مطالعاتی که از لحاظ روششناسی یا اعتبار ضعیف هستند یا نتایج غیرقابلاستناد دارند؛ مقالاتی که بیشتر به جنبههای فنی هوش مصنوعی یا کاربرد آن در پرستاری بدون تحلیل اخلاقی میپردازند؛ مقالاتی که بیشتر به جنبههای فنی هوش مصنوعی یا کاربرد آن در پرستاری بدون تحلیل اخلاقی میپرداختند و مقالاتی که به زبانهایی غیر از فارسی یا انگلیسی نوشته شدهاند.
ارزیابی کیفیت مقالات
ابتدا اعتبار مقالات با استفاده از چکلیست پذیزما مورد ارزیابی قرار گرفت. ارزیابی مقالات بصورت جداگانه توسط دو محقق انجام شد. در صورت بروز اختلاف نظر دو نفر محقق ، ناظر مقاله ها را بررسی کرد و نظرات ایشان بعنوان تصمیم نهایی اعمال شد. برای جمع آوری داده های مقالات منتخب نهایی فرم استخراج و طبقه بندی داده ها که شامل نام نویسنده، عنوان، کشور، سال و نتایج بود استفاده شد. کاهش، نمایش، مقایسه و جمع بندی داده ها انجام شد. دراین مطالعه بر نتایج مقالات تفسیر صورت گرفت و تا حد امکان نیز از اصل مقالات که توسط نویسنده به کار رفته بود، استفاده گردید.
استخراج مقالات مطابق با معیارهای ورود
با بهرهگیری از کلیدواژهها در انتهای جستوجو، 20 مقاله از پایگاههای فارسی و 42 مقاله از پایگاههای بینالمللی و در مجموع 62 مطالعه جمعآوری شد. مطالعات براساس معیارهای ورود مورد بررسی قرار گرفتند. انتخاب مطالعات مرتبط بهگونهای صورت گرفت که ابتدا لیستی از عناوین و چکیده تمام مقالات موجود در پایگاههای اطلاعاتی توسط پژوهشگران تهیه شد. در ادامه با مرور دقیق بر عنوان و چکیده مقالات، تعداد زیادی از آنها بهعلت غیرمرتبط بودن با هدف مطالعه کنار گذاشته شد و در صورتی که پس از مطالعه عنوان و چکیده، امکان تصمیمگیری در مورد مطالعه وجود نداشت، متن کامل آن مورد مطالعه قرار گرفت. سپس مقالات مرتبط بهطور مستقل وارد فرآیند پژوهش شدند و در نهایت17 مقاله وارد مطالعه شد (
تصویر شماره 1).
جدولبندی و خلاصه کردن اطلاعات و دادهها
در این مرحله پس از اینکه دادهها استخراج گردید، کلیه دادههای مطالعات براساس نام نویسنده اول، سال، مکان، عنوان و یافتههای پژوهش در
جدول شماره 1 خلاصه شد.

همچنین در
جدول شماره 2 فراوانی نسبی چالش و دوراهیهای اخلاقی در مطالعات مرورشده و
جدول شماره 3 تحلیل همبستگی چالشهای اخلاقی (بر مبنای هموقوعی) آورده شده است.
گزارش نتایج
پس از مطالعه خلاصه و متن کامل مقالات مرتبط با موضوع تحقیق اطلاعات موردنظر برای انجام نگارش استخراج شد. اطلاعات لازم برای هر مطالعه شامل نام نویسنده، سال، مکان، نوع مطالعه، روش نمونهگیری، ابزار گردآوری اطلاعات و نتایج بود. در انتها، اطلاعات حاصل از مقالات طبقهبندی شد و در نهایت بهصورت متن کامل یک مقاله مروری گزارش شد.
یافتهها
در مجموع، 62 مطالعه از پایگاهها بازیابی شدند. پس از بررسی مقالات براساس عنوان و چکیده، 10 مقاله غیرمرتبط حذف شدند. از 52 مقاله باقیمانده، پس از بررسی متن کامل آنها، در نهایت 17 مطالعه واجد شرایط ورود به مرور بودند (
تصویر شماره 1) . فرآیند انتخاب مطالعات براساس پروتکل پریزما انجام شد و مشخصات مطالعات واردشده به مرور در
جدول شماره 1 نشان داده شده است. استفاده از هوش مصنوعی در مراقبتهای سلامت، چالشهای اخلاقی متعددی را به همراه دارد که باید مدنظر قرار گیرند.
استفاده از هوش مصنوعی در مراقبتهای سلامت ممکن است بر استقلال بیمار تأثیر بگذارد و نیاز به اطمینان از مشارکت بیمار در فرآیند تصمیمگیریهای مراقبتی وجود دارد. هوش مصنوعی در عمل با چالشهای فوری در یکپارچهسازی با مسائل بالینی مواجه است، ازجمله اینکه چگونه با اخذ رضایت آگاهانه هماهنگ شود. در استفاده از هوش مصنوعی در مراقبتهای سلامت، نیاز به ایمنی، شفافیت و وضوح در دستورالعملها و مقررات وجود دارد. استفاده از هوش مصنوعی در مراقبتهای سلامت شامل جمعآوری دادههای شخصی و حساس است که باید از حملات سایبری محافظت شود و حریم خصوصی اطلاعات بیماران حفظ گردد. توسعه و استفاده از هوش مصنوعی در مراقبتهای سلامت نیازمند پاسخگویی بهموقع و شفافیت است.
استفاده از هوش مصنوعی در مراقبتهای سلامت، علیرغم مزایای متعدد، محدودیتها و چالشهای اخلاقی متعددی را به همراه دارد که باید به آنها پرداخته شود، ازجمله رضایت آگاهانه، ایمنی و وضوح دستورالعملها، حریم خصوصی دادههای مرتبط با بیمار، پاسخگویی و تأثیر بر استقلال بیمار. ایجاد دستورالعملها و مقررات واضح برای تضمین توسعه و پیادهسازی هوش مصنوعی به روشی اخلاقی و پاسخگو دارای اهمیت است. در
جدول شماره 1، این موضوع بهصورت دقیق بررسی شده است.
بحث
این مطالعه با بررسی دقیق 17 مقاله مرتبط، به واکاوی چالشهای اخلاقی ناشی از بهکارگیری هوش مصنوعی (AI) در حوزه پرستاری پرداخته است. یافتههای ما بهوضوح نشان میدهند که ورود هوش مصنوعی به عرصه مراقبتهای پرستاری، مجموعهای از دوراهیهای اخلاقی را برای پرستاران ایجاد میکند که میتواند بر روند تصمیمگیری و عملکرد آنها در موقعیتهای حساس بالینی تأثیرگذار باشد. این تردیدها و چالشها صرفاً جنبه نظری ندارند، بلکه ریشه در ماهیت تکنولوژیهای هوش مصنوعی و کاربرد آنها در محیطهای پیچیده مراقبت سلامت دارند.
یافتههای این مطالعه نشان داد استفاده از هوش مصنوعی میتواند چالشهای اخلاقی متعددی ایجاد کند و پرستاران را در مسیر دوراهی و تردید در انتخاب و عملکرد دررابطهبا مسائل اخلاقی جهت انجام امور مراقبتی قرار دهد. تاآنجاکه مطالعات مختلفی در این زمینه انجام شده و مسائل اخلاقی را تجزیهوتحلیل کردهاند، پیشرفتهای اخیر در زمینه هوش مصنوعی در سلامت و مراقبت، با برخی مسائل اخلاقی همراه است. چالشهایی دررابطهبا سوگیری، تبعیض، عدم شفافیت، نگرانیهای منطقی یا ناهنجاریها وجود دارد.
یکی از مهمترین چالشها، مسئله سوگیری (Bias) در الگوریتمهای هوش مصنوعی است. الگوریتمها براساس دادههایی آموزش میبینند که ممکن است خود شامل سوگیریهای تاریخی، فرهنگی یا اجتماعی باشند. این سوگیریها میتوانند منجر به تبعیض در ارائه مراقبتها شوند؛ برایمثال، توصیههای هوش مصنوعی ممکن است برای گروههای خاصی از بیماران (مانند اقلیتهای قومی یا بیماران با وضعیت اقتصادی-اجتماعی پایین) کمتر دقیق یا حتی مضر باشند. علاوهبراین، سؤالهای مختلفی وجود دارد که سعی میکنند به مسائلی نظیر اجازه تعامل یا مداخله هوش مصنوعی و اینکه آیا سیستمها باید حمایتکننده یا تصمیمگیر باشند، پاسخ دهند. اگرچه هوش مصنوعی بهطور مکرر در مراقبتهای پرستاری میتواند مورد استفاده قرار گیرد، باید از منظر اخلاقی مورد قبول باشد.
در نهایت، نتایج مطالعه نشان میدهد از سال 2018 به بعد، افزایش چشمگیری در انتشار مقالات دررابطهبا هوش مصنوعی و چالشهای اخلاقی وجود داشته است. این میتواند به این واقعیت مرتبط باشد که هوش مصنوعی بهطور فزایندهای در امر مراقبت استفاده میشود و توجه کمی به چالشهای اخلاقی شده است [30]. تحقیقات اخیر شواهدی ارائه میدهد که هوش مصنوعی به تیم مراقبت و درمان در فرآیند تشخیص کمک میکند، همکاری بین کارکنان مراقبتهای بهداشتی را بهبود میبخشد و به بیماران در دوره بیماری کمک میکند [12، 30] و مقرونبهصرفهتر است.
بااینحال، توسعه یک فناوری پشتیبانی معمولاً نیازمند در نظر گرفتن ملاحظات اخلاقی میباشد. سه اصل اخلاقی که تاکنون در اکثر مطالعات مورد بحث بودهاند، ضرر نرساندن، خیرخواهی و عدالت هستند. اصل ضرر نرساندن در استفاده از هوش مصنوعی به این صورت است که اگر براساس تشخیص اشتباه هوش مصنوعی کوچکترین آسیبی به مددجویان وارد شود، چگونه میتوان آن مسئله را مدیریت کرد. دررابطهبا خیرخواهی و اصل عدالت نیز این مسائل مورد انتقاد هستند [12].
هوش مصنوعی در مقایسه با سایر فناوریها، استقلال پرستاران را بیشتر تهدید میکند. درحالحاضر، هوش مصنوعی به مراقبان بهداشتی در انجام وظایف خاصی کمک میکند؛ بهعنوانمثال، سیستمها درحالحاضر قادر به جمعآوری اطلاعات سریعتر هستند، میتوانند وابستگیهای متقابل پیچیده را بهتر تفسیر کنند و مفروضاتی را بدون هیچگونه سوگیری ذهنی استخراج کنند. بهعنوانمثال، بهدلیل فشار کاری و خستگی در پرستاران، عملکرد هوش مصنوعی نتایج بهتری برای پرستاران دارد و این زنگ خطر است. بنابراین، زمانی که سیستمها مزیتهای متوالی را نسبت به انسان کسب میکنند، مطمئناً استقلال محدود میشود [13].
ازآنجاییکه از یک فناوری حمایتی به سمت تصمیمگیری مستقل میرویم، تحقیقات در زمینه خودمختاری هنوز بسیار گسترده نیست، اما در حال تبدیل شدن به یک موضوع حیاتی است. هوش مصنوعی همچنین با پردازش اطلاعات مربوط به بیماران نتایجی را بهدست میآورد، اما این نتایج ممکن است نتواند توسط انسان تفسیر گردد و مشکل باشد. بنابراین، تسلط و بینش نیروی انسانی نسبت به آن دادهها کمتر میگردد و همهچیز ماشینی میشود [14]. علاوهبراین، الگوریتمهای هوش مصنوعی با استفاده از مجموعه دادههای نمونهای که حاوی ویژگیهای خاصی است (یعنی ویژگیهای بیمار) که اگر دادهها ناقص یا نادرست باشند، خطر زیادی برای ایجاد نتایج نادرست وجود دارد که حتی ممکن است بهدلیل پیچیدگی الگوریتمهای زیربنایی دیگر قابلتشخیص نباشند. همچنین، دادههایی که برای آموزش یک الگوریتم استفاده میشوند، درحالحاضر هنوز توسط انسان طبقهبندی میشوند و ممکن است تا حدودی حاوی سوگیری ذهنی باشند [16].
خودمختاری، هدفمندی و مسئولیتپذیری در هوش مصنوعی، سیستمها یا عوامل فعلی هوش مصنوعی، مانند رباتهایی که مراقبتهای بهداشتی را انجام میدهند، ابعاد استقلال، هدفمندی و مسئولیت را در پرستاران با چالش اخلاقی مواجه میکنند. هدفمندی به توانایی یک سیستم هوش مصنوعی اشاره دارد که بهگونهای عمل کند که ازنظر اخلاقی مضر یا مفید باشد و اعمال آن عمدی و محاسبهشده باشند [17]. مطالعات نشان میدهند سیستمهای هوش مصنوعی برخی از قوانین اجتماعی را انجام میدهند و برخی مسئولیتها را بر عهده میگیرند. بااینحال، خودمختاری، هدفمندی و مسئولیتپذیری سیستمهای هوش مصنوعی چالشبرانگیز است. زمانی که یک سیستم یا عامل هوش مصنوعی در یک کار مشخص شکست میخورد و به عواقب بدی منجر میشود، چه کسی باید پاسخگو باشد [18].
در مورد عواقب نامطلوب احتمالی که توسط هوش مصنوعی ایجاد میشود، مانند اشتباه در کدهای برنامهنویسی، دادههای ورودی غلط، عملکرد نامناسب یا عوامل دیگر، چه کسی پاسخگو خواهد بود. بنابراین، پاسخگویی یک موضوع اخلاقی است که به عوامل انسانی دخیل در طراحی، پیادهسازی، استقرار و استفاده از هوش مصنوعی مربوط میشود [19].
هدف نهایی رعایت نکات اخلاقی در هوش مصنوعی این است که بتوان از اصول اخلاقی پیروی کرد و اخلاقمدارانه رفتار کرد که بسیار دشوار است. در مطالعهای پیشنهاد شده است طراحان، مهندسان نرمافزار و سایر شرکتکنندگان در طراحی و کاربرد سیستمهای هوش مصنوعی باید قوانین حقوق بشر را رعایت کنند. در صورت کوچکترین اشتباه در کاربری، ممکن است نقض حقوق بشر صورت پذیرد که این امر نیز یکی از دوراهیهای اخلاقی است [20].
تأثیر اجتماعی مسائل اخلاقی هوش مصنوعی نیز به این صورت است که جایگزینی سیستمها و رباتهای خودکار هوش مصنوعی باعث اختلال در بهکارگیری نیروهای کادر درمان، بهویژه پرستاران، میگردد. این امر بسیاری از سیاستگذاران سلامت را با ترس روبهرو کرده است. اصل عدالت و انصاف به عدم تبعیض و بیطرفی مربوط میشود [21].
نژادپرستی و تعصب جنسیتی در بسیاری از حوادث رایج است. بیشتر این موارد در زبان یا مدلهای بینایی کامپیوتری رخ میدهد. این مورد باید یک حوزه بسیار متمرکز برای متخصصان هوش مصنوعی در حین طراحی و استقرار باشد. اصل عدم سوءاستفاده نیز بر این باور است که تعهدی وجود دارد که آسیبی به دیگران وارد نشود. این اصل به نگرانیهای ایمنی، آسیب، امنیت و حفاظت مربوط میشود. این سومین موضوع رایج در دستورالعملهای اخلاقی است [22].
فناوریهای هوش مصنوعی مزایای قابلتوجهی برای پرستاری، بهویژه در تصمیمگیری و کارایی وظایف، ارائه میدهند. بااینحال، این مزایا باید در برابر نگرانیهای اخلاقی، ازجمله حفاظت از حقوق بیمار، شفافیت الگوریتمی و کاهش سوگیری، متعادل شوند. چارچوبهای نظارتی فعلی برای برآورده کردن نیازهای اخلاقی پرستاری نیاز به سازگاری دارند [27].
باتوجهبه
جدول شماره 2، بررسی مطالعات نشان داد سوگیری و تبعیض بیشترین توجه را به خود اختصاص داده و در 14 مطالعه (82 درصد) گزارش شده است. پس از آن، استقلال و خودمختاری پرستار با پوشش 13 مطالعه (76 درصد) در جایگاه دوم قرار دارد. مسئولیتپذیری و پاسخگویی نیز در 12 مطالعه (71 درصد) مورد توجه قرار گرفته است.
موضوع شفافیت الگوریتمی و تفسیرپذیری در 10 مطالعه (59 درصد) بررسی شده است. دو محور امنیت، حریم خصوصی و حقوق بشر و اصل عدم آسیب و خیرخواهی هر کدام در 9 مطالعه (53 درصد) گزارش شدهاند. عدالت و انصاف با 8 مطالعه (47 درصد) و درنهایت چارچوبهای نظارتی و حقوقی با 5 مطالعه (29 درصد) کمترین فراوانی را در میان فراوانی نسبی چالش و دوراهی های اخلاقی داشتهاند.
نتیجهگیری
نتایج مطالعه حاضر نشان میدهد چالشها و دوراهیهای اخلاقی بسیاری دررابطهبا استفاده از هوش مصنوعی در پرستاری وجود دارد و در سالهای گذشته افزایش چشمگیری داشته است. ورود هوش مصنوعی به عرصه پرستاری، اگرچه نویدبخش بهبودهایی در ارائه مراقبت است، مجموعهای جدی از پرسشها و تردیدهای اخلاقی را پیش روی پرستاران و نظام سلامت قرار میدهد که نمیتوان آنها را نادیده گرفت. یافتههای ما بهوضوح نشان میدهد این فناوری، صرفاً یک ابزار کمکی نیست، بلکه عاملی است که میتواند نحوه تصمیمگیری، تعامل و درنهایت کیفیت مراقبت ارائهشده توسط پرستاران را بهطور بنیادین تحت تأثیر قرار دهد.
بهکارگیری هوش مصنوعی در پرستاری، با وجود مزایایی مانند کمک به تشخیص، بهبود همکاری و مقرونبهصرفهتر بودن، چالشها و دوراهیهای اخلاقی متعددی را برای پرستاران ایجاد میکند. این چالشها شامل مسائلی نظیر سوگیری و تبعیض در الگوریتمها، عدم شفافیت در عملکرد آنها، تهدید استقلال پرستاران، ابهامات در مورد مسئولیتپذیری در صورت بروز خطا، و نگرانیهای مربوط به اصول اخلاقی سنتی مانند ضرر نرساندن، خیرخواهی و عدالت است.
چالشهای اخلاقی در استفاده از هوش مصنوعی در مراقبتهای پرستاری، بهویژه درمورد عدالت، استقلال، عدم ضرررسانی، سودرسانی و مسئولیتپذیری رایج هستند. مطالعاتی که استفاده از هوش مصنوعی را نیازمند حل کردن دوراهیها و چالشهای اخلاقی میدانند نیز بسیار است. پیشنهاد میشود در مطالعات آتی به بررسی دقیق و یافتن راهحلهایی برای اطمینان از اجرای اخلاقی و مسئولانه استفاده از هوش مصنوعی در مراقبتهای بهداشتی پرداخته شود.
ملاحظات اخلاقی
پیروی از اصول اخلاق پژوهش
در تدوین این مقاله مروری، کلیه اصول اخلاق پژوهش رعایت شده است. تمامی یافتهها و متون از مقالات دیگر، با استناد به منبع اصلی و مطابق با قواعد سرقت ادبی، بهطور مناسب ذکر شدهاند. از آنجاییکه این مطالعه مبتنی بر دادههای منتشرشده قبلی است، با کسب مجوز از کمیته اخلاق دانشگاه علوم پزشکی اردبیل با شناسه اخلاق (IR.ARUMS.REC.1404.114.) انجام شد.
حامی مالی
این پژوهش هیچگونه کمک مالی از سازمانیهای دولتی، خصوصی و غیرانتفاعی دریافت نکرده است.
مشارکت نویسندگان
مفهومسازی: مژده طاهری افشار؛ روششناسی: مژده طاهری افشار و مصطفی رجبزاده؛ اعتبارسنجی و نظارت: محسن پورصادقی؛ تحلیل و منابع: امیرحسین نادی؛ تحقیق و بررسی: ملیحه اسحاقزاده؛ نگارش پیشنویس و بصریسازی: مصطفی رجبزاده؛ ویراستاری و نهاییسازی نوشته: مصطفی رجبزاده و محسن پورصادقی؛ مدیریت پروژه: محسن پورصادقی و ملیحه اسحاقزاده.
تعارض منافع
بنابر اظهار نویسندگان، این مقاله تعارض منافع ندارد.