ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

آیا ماشین‌ها اخلاق‌مندانه‌تر از انسان‌ها کار می‌کنند؟

الکساندر لاکروا − داوری اخلاقی انسان در نظارت بر ماشین‌ها امری الزامی است. آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟

جامعه‌های گوناگون در شرق و غرب به کاربرد ماشین‌های خودکار و هوش مصنوعی در زمینه‌های گوناگون رو می‌آورند. برای نمونه، شرکت‌های بسیاری برای مراحل گزینش، برنامه‌های خاص تفکیک زندگی‌نامه‌های شغلی درخواست‌کنندگان را به کار می‌برند و گاهی، حتا داوطلبان باهوش‌تر حذف می‌شوند.
در این میان، پرسش‌هایی درباره‌ی مرزها و کیفیت اخلاقی کاربرد چنین فناوری‌هایی مطرح می‌شود. الکساندر لاکروا، روزنامه‌نگار و سردبیر «نشریه فلسفه» در فرانسه، در این مقاله‌ به اخلاق‌‌مندی کاربرد ماشین‌ها و الزام نظارت انسان بر کاربرد آن‌ها می‌پردازد، موضوعی که در چارچوب آینده‌پژوهی نیز طرح‌پذیر است.

انسان و ماشین‌های مدرن هوشمند (عکس از Shutterstock)
داوری اخلاقی انسان در نظارت بر ماشین‌ها امری الزامی است. آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟ (عکس از Shutterstock)

در سال ۲۰۱۸، چند هفته پیش از انتشار این مقاله، رخدادی خبرساز شد: در ایالات متحده آمریکا، برخورد ماشینی خودران با زنی رهگذر او را از پا درآورد. پس از این سانحه، طرح پرسش از اخلاق‌مندی ماشین، ضروری می‌شود. آیا ربات‌ها یا ماشین‌های خودران می‌توانند تشخیص خوب و بد از یکدیگر را بیاموزند؟ پنج کارشناس به این پرسش پاسخ می‌دهند.

کِنِث دبلیو گودمن، استاد علوم پزشکی و مدیر موسسه‌ی اخلاق زیستی در دانشگاه میامی آمریکا می‌گوید: «تفاوت میان کردار هوش مصنوعی و انسان نه تنها در تفسیر زمینه‌های آن عملکرد، بلکه در این ویژگی نهفته که انسان شمار بسیاری از اصول را چنان تضمینی و بدیهی می‌بیند که به هیچ وجه به بیان آن‌ها نیازی نیست و دقیقاً به همین دلیل است که داوری اخلاقی انسان در نظارت بر ماشین‌ها امری الزامی است.» شاید باید این پرسش را هم به گفته‌ی گودمن افزود: آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟

از سال ۲۰۱۶ تاکنون، نظرسنجی‌ای در این زمینه ادامه داشته است. نزدیک به ۴۰ هزار نفر در آن شرکت کرده‌اند: نظرسنجی اینترنتی «اخلاق ماشین» را موسسه معتبر فناوری ماساچوست (MIT) طراحی کرده است.

هدف آن، پژوهش در انگیزش اخلاقی ما با تمرکز بر گزینه‌های تصمیم‌گیری ناخوشایند است.

یک نمونه: ترمز ماشینی خودران کار نمی‌کند و تنها دو امکان برای جلوگیری از فاجعه وجود دارد: باید آن را با برخورد به دیواری متوقف کرد که سرنشینان در آن کشته می‌شوند یا با زدنش به سه کودک که همان لحظه در راه بازگشت از مدرسه هستند، باعث توقف آن شد؟ آیا موضوع تفاوتی خواهد داشت، اگر آن کودکان با وجود چراغ قرمز از خیابان بگذرند یا نوزادی در میان سرنشینان خودرو باشد؟

این صحنه، بی‌پیش‌زمینه ابداع نشده است. با نزدیکی زمان جوازیابی ماشین‌های خودران در خیابان‌های ما در غرب، باید با مسئله‌ای روبه‌رو شویم که فیلیپا فوت، فیلسوف بریتانیایی، در سال ۱۹۶۷ آن را صورت‌بندی کرد و از آن پس، در گفتمان اخلاقی محافل انگلیسی-آمریکایی آن را با نام «مسئله‌ی تراموا»[1] (trolley problem) می‌شناسند: تراموایی شتابان به سوی پنج نفر در حرکت است. شما این امکان را دارید که سوزن خط آهن را طوری تغییر دهید تا با تغییر ریل تراموا فقط یک نفر در تصادف کشته شود. آیا با وجود مسئولیت مرگ آن یک نفر برای شما، دست به چنین کاری خواهید زد؟ اکثر مردم به این پرسش پاسخ مثبت می‌دهند. حالا وضعیت دیگری را در نظر بگیریم: شما می‌توانید با هل دادن مردی بسیار سنگین‌وزن که در آن نزدیکی ایستاده، مسیر تراموا را مسدود کنید و مانع برخورد آن به عده‌ی بیشتری شوید. آیا چنین کاری را انجام می‌دهید؟ بیشتر افراد پاسخ منفی می‌دهند، هرچند نتیجه‌ اقدام، همان جلوگیری از مرگ عده‌ای بیشتر باشد. این واکنش نشان می‌دهد که ما در وضعیت‌های واقعی کاملاً «پیامدمحور» عمل نمی‌کنیم و پیامدباور نیستیم. به عبارت دیگر، ما داوری اخلاقی‌مان را در باره‌ی یک کنش، تنها بر مبنای نتیجه‌ یا پیامدهای آن، شکل نمی‌دهیم (توضیح بیشتر در بخش‌های بعدی).

دلبندم، نباید با ماشین من رانندگی کنی!

ژان فرانسوا بونفون، از متخصصان اصلی آزمون‌های موسسه‌ی فناوری ماساچوست، استاد مدرسه‌ی عالی اقتصاد شهر تولوزِ فرانسه است. او در زمینه‌ی روانشناسی شناختی تحقیق می‌کند. با او تماس می‌گیرم و مسئله‌ای را برایش مطرح می‌کنم: این واقعیت را که ما انسان‌ها بر سر دوراهی، بیشتر به آسایش خود یا در همین راستا، آسایش نزدیکان‌مان توجه می‌کنیم. اما ماشین‌ها کاملاً فایده‌محور عمل می‌کنند و بیشترین خرسندی ممکن، برای بیشترین افراد ممکن را در نظر دارند، چون برای این کار برنامه‌ریزی شده‌اند. نمونه‌ای مشخص: اگر شرکت گوگل فرداروزی خودرویی با این برنامه‌ریزی روانه‌ی بازار کند که در وضعیت‌های اضطراری مشخص، خود را به دیواری بکوبد، فقط در نهایت بی‌میلی از آن استفاده می‌کنم و هرگز فرزندانم را سوار آن نمی‌کنم. آیا آمادگی کاربران برای تغییر تمایل با هدف کاربرد ماشین‌های خودران، به این بستگی نخواهد داشت که آن‌ها طوری برنامه‌ریزی شده باشند تا بتوانند همواره سرنشینان‌شان را نجات بدهند، حتا اگر نتیجه غیراخلاقی باشد؟ بونفون در این مورد پاسخ می‌دهد: «شاید ترجیح بدهید، [برای پرهیز از خطای ماشین خودران] خودتان رانندگی کنید. اما فرض کنیم، یک ماشین خودران خطر تصادف رانندگی را تا ده برابر، پنج برابر یا حتا دو برابر مجموع موردهای گذشته کاهش بدهد. در این صورت، آیا چشم‌پوشی از این مزیت، آن هم تنها از ترس وضعیت‌های احتمالیِ بسیار استثنایی، سویه‌ای غیرعقلانی نداشت؟ آیا در این صورت، با چشم‌پوشی از ماشین‌های خودران، عکس قضیه صادق نبود و خود شما مسئولیت اخلاقی محافظت از جان فرزندان‌تان را در برابر خطرهای رانندگی‌‌ شخصی‌تان بر عهده نداشتید؟ »

به این ترتیب، آیا من تنها کسی هستم که از فکر نشستن در ماشینی خودران می‌ترسم، چون ممکن است مرا در صورت محاسبه‌ی نجات جان دو انسان دیگر در وضعیت اضطراری به دیواری بکوبد و بکشد؟ این پرسش را در گفت‌وگو با نیکلاس اِوِنز، استاد فلسفه‌ی دانشگاه لاوِل (ماساچوست) در آمریکا، مطرح کردم. او به‌تازگی همراه با گروهی پژوهشی ۵۵۶ هزار دلار بودجه از «بنیاد ملی علوم آمریکا» دریافت کرده تا الگوریتم یا دستورواره‌ای برای حل معمای تراموا طراحی کند. تا آنجا که من دریافته‌ام، موفقیت خودروهای شاسی‌بلند در بازار، به‌ویژه در میان پدران خانواده‌‌ها، بر این مبنا است که چنین خودروهای بزرگی، در عمل، هر نوع مانعی را سر راه‌شان از بین می‌برند، ویژگی‌ای که شاید چندان جامعه‌دوستانه نباشد، اما امنیتی بسیار آرامش‌بخش دارد. اِوِنز در ادامه‌ این‌گونه تحلیل می‌کند: «فرض کنیم شما فردی اهل سودباوری و پیامدباوریدر وضعیت‌های زندگی هستید. هدف شما هم افزایش آسایش بیشترین شمار ممکن از افراد اجتماع است، این‌طور نیست؟ بنابراین، جهانی که در آن، همه با ماشین‌های خودران جابه‌جا می‌شوند، به دلیلی که گفته شد، از دید شما ارزش حمایت پیدا می‌کند. سرانجام، در چنین وضعی، مجموعاً نزدیک به ۹۰ درصد از تصادف‌ها کم می‌شود. البته می‌دانید که چنان جهانی تنها در صورتی وجود خواهد داشت که چنین ماشین‌هایی در هر وضعیتی از سرنشینان خود محفاظت کنند، وگرنه، مردم از سوار شدن خودداری می‌کنند. یک فایده‌باور منطقی‌، این را خواهد پذیرفت که ما در مورد چنین خودروهایی از این قاعده‌ی الزام‌آور، وظیفه‌محور و بحث‌ناپذیر پیروی می‌کنیم تا رفاه عمومی را افزایش بدهیم: ماشین‌های خودران همیشه از سرنشینان‌شان محافظت می‌کنند، چون این ویژگی و قاعده با منش اخلاقی ما سازگار است. این وضع را سودباوری خویشتندارانه (self-effacing utilitarianism) می‌نامند، فایده‌باوری‌ای که خود را بازمی‌دارد و محدود می‌کند. برای دستیابی به هدفی سخت فایده‌باورانه، گاهی عقلانی است که قاعده‌‌ی اخلاقی الزام‌آوری را بپذیریم.» [2]

ژان فرانسوا بونفون، به این موضوع به گونه‌ی دیگری می‌نگرد: «در جایگاه روانشناس، فکر می‌کنم که باید با نوعی ظاهرسازی بنیادین مقابله کنیم. بعضی تصمیم‌های اخلاقی خاص دردناک هستند؛ ما دوست نداریم درباره‌‌شان فکر کنیم. به همین دلیل، طرفدار این برداشت هستیم که پیشامدهایی ناگزیر وجود دارند و این، بخشی از زندگی بشری است. بعد هم با بی‌عرضگی خاصی به خود می‌گوییم: 'ما به رویکردی سامانمند نیاز نداریم. اگر وضعیت بغرنجی پیش بیاید، خواهیم دید که بسته به دریافت درونی در همان لحظه، چه باید کرد.' مسئله‌ای که کاربرد خودروهای خودران پیش می‌کشد، آن است که ما را مجبور می‌کند، دست‌مان را رو کنیم. – من شخصاً طرح این مسئله را نوعی فرصت می‌دانم. – ما باید بر سر اصول این وضعیت تازه با یکدیگر به تفاهم برسیم؛ به شناسایی موردهایی برسیم که این اصول در آن‌ها پذیرفتنی نیستند و بر سر اصول با یکدیگر بحث و آن‌ها را روشن کنیم. بنابراین، باید به قلمرو شبهه‌‌انگیزی پا بگذاریم که تا به حال ترجیحاً از آن دوری جسته‌ایم.

شبهه‌زدایی از قلمرویی شبهه‌‌انگیز - آیا اصلاً‌ می‌توان چنین کرد؟ نیکُلاس اِوِنز در این باره شک دارد و می‌گوید: «مسئله این است که ما نمی‌دانیم یک ماشین حقیقتاً اخلاق‌مند باید چه ماهیتی داشته باشد. یکی از جهانرواترین فرمان‌های اخلاقی را در نظر بگیریم: 'نباید انسانی را بکشی! ' آیا خودرویی قابل تصور است که این فرمان را رعایت کند؟ نیست! این واقعیت ساده‌ که ماشینی را برنامه‌ریزی می‌کنیم، ما را به پذیرش دیدگاهی پیامدمحور و سودمحور وامی‌دارد، حتا اگر چنین گزینه‌های فلسفی‌ای برای‌مان زننده باشند.»

ربات‌های جنگی در حال پیشرفت‌اند؟

گروهی از دستگاه‌ها هستند که بر خلاف ماشین‌های خودران مشخصاً برای کشتن طراحی شده‌اند: پهپادهای جنگی. از چند سال پیش تا کنون، جنگ‌افزارسازان - به‌ویژه در ایالات متحده آمریکا- سرگرم ساخت ربات‌های جنگی مستقل و دستگاه‌های خودجنگ مانند پهپادها بوده‌اند که دیگر نیازی به همراهی فیزیکی سربازی برای هدایت آن‌ها وجود نداشته باشد، بلکه خودشان بتوانند یکباره، با اعزام به عملیات، فرمان‌های نظامی‌شان را بی‌‌همراه و خودکار پیاده کنند.

آغازگر یکی از استدلال‌های اصلی در دفاع از ساخت چنین ربات‌هایی رونالد سی. آرکین، پژوهشگر مهندسی رباتیک، است. طبق استدلال او ربات‌ها ت نابودسازی خود را دارند، در حالی که یک سرباز وظیفه در عملیات، به هر قیمتی برای نجات جان خود می‌کوشد و در صورت نیاز، بی‌اختیار به پیرامون خود نیز شلیک می‌کند. اما برای نمونه، یک پهپاد پیش از هر ویرانگری دیگر، قابلیت انفجار خودکار دارد تا خطر کشتن غیرنظامیان یا کودکان

را پدید نیاورد. در مقابل، پیتر آسارو، استاد مدرسه عالی نوین نیویورک و کارشناس اخلاق در مهندسی رباتیک، می‌گوید: «چنین استدلالی مرا قانع‌ نمی‌کند. از یک سو، پیش‌بینی رفتار انسان‌ها در عملیات جنگی دشوار است و بر پایه‌ی تجربه می‌دانیم، سربازان بسیاری بوده‌اند که قربانی نجات همرزمان‌شان یا حفظ منطقه‌ای خاص شده‌اند. از سوی دیگر، به‌سختی می‌توانم نمونه‌‌هایی از صدور فرمان‌ نظامی برای نابودی جنگ‌افزارهای گران‌قیمت را به یاد بیاورم. کدام ارتش را سراغ داریم که آگاهانه تانک‌ها، بالگردها یا پهپادهای خود را برای حفظ جان غیرنظامیان نابود کرده باشد؟ »

آسارو از بنیانگذاران «کمیته‌ی بین‌المللی نظارت بر جنگ‌افزارهای رباتیک» (ICRAC) است. سازمانی غیردولتی، دربرگیرنده‌ی پژوهشگرانی که پیشنهادهایی برای ساماندهیِ قانونیِ کاربرد جنگ‌افزارهای خودکار از سوی نیروهای نظامی تهیه می‌کند. یکی از موفقیت‌های این سازمان، ایجاد «کارزار ممنوعیت ربات‌های مرگبار» بود که در سال ۲۰۱۵ با فراخوان ممنوعیت کاربرد پهپادها به عرصه‌ی عمومی راه یافت و ۱۵۰۰ شخصیت سرشناس مانند استیون هاوکینگ، اخترفیزیکدان، دانیل دِنِت، فیلسوف، و اِلُن ماسک، کارآفرین، آن را امضا کردند.

اکنون، مدافعان کاربرد سامانه‌های خودجنگ استدلال دیگری نیز دارند: می‌توان چنین جنگ‌افزارهایی را طوری تنظیم کرد که هرگز خطا نکنند. یعنی برای نمونه، به غیرنظامیان، زنان، سالخوردگان یا کودکان شلیک نکنند. آسارو در این باره چنین توضیح می‌دهد: «تفکیک میان هدف‌ها اصلی اساسی در حقوق جنگ است. این اصل به معنای توانایی تشخیص میان غیرنظامیان و نظامیان است. اگر مسئله فقط تشخیص دیداری این دو از یکدیگر باشد، بی‌شک ماشین‌ها مناسب‌ترین گزینه هستند. اما این تشخیص چندان آسان نیست، زیرا مقوله‌ی 'غیرنظامیان سهیم در درگیری‌های جنگی' نیز وجود دارد. در اینجا با معیاری روبه‌رو نیستیم که ‌بی‌درنگ تشخیص‌پذیر باشد، بلکه با ویژگی‌ای در پیوند با رفتار آن غیرنظامیان مواجه‌ایم. آیا چنین غیرنظامی‌ای تنها از سر خشم، سنگی را برمی‌دارد و آن را به سوی خودروی جنگی پرتاب می‌کند یا از شیوه‌ی حرکت فرد در محوطه‌ی حضورش آشکار می‌شود که در میانه‌ی اجرای فرمانی نظامی است؟ آیا باید او را تهدید به شمار آورد؟ رمزگشایی چنین سویه‌های رفتاری‌ای تنها با درک مشخصی از برهم‌کنش‌های اجتماعی و دانش روانشناسی ممکن است. حقوق جنگ تنها زمانی اجازه‌ی حمله به غیرنظامیان را می‌دهد که مستقیم در درگیری‌های جنگی سهیم باشند و ماشین‌های جنگی خودکار توان تشخیص چنین ویژگی‌ای را ندارند.»

دومین اصل مهم در حقوق جنگ، تناسب است: کسی تمام روستایی را نابود نمی‌کند تا پنج پیکارجوی درگیر جنگ را در آن از بین ببرد. کاربرد خشونت باید متناسب با هدف‌های نظامی و تهدیدهای واقعی باشد. آسارو می‌گوید: «رعایت اصل تناسب در جنگ نیز نیازمند قوه‌ی داوری انسان است. در این زمینه، از جمله، فوراً این مسئله‌ی دشوار پیش می‌آید: برای دستیابی به هدف نظامی‌تان خطر انهدام کدام زیرساخت‌ها را می‌پذیرید؟ فرض کنیم، نزدیک یک انبار مهمات دشمن، بیمارستان یا مدرسه‌‌ای وجود داشته باشد. آیا با وجود این، باز هم به آن زرادخانه حمله می‌کنید؟ در مورد انفجار مدرسه امکان بمباران شبانه‌ برای آسیب نرسیدن به کودکان وجود دارد، اما در مورد بیمارستان، به دلیل وجود بیماران، چنین راه حلی در کار نیست. پاسخ معیاری وجود ندارد. راهبردها و هدف‌های نظامی ممکن است ساعت‌ به‌ ساعت تغییر کنند. به‌همین دلیل، یک فرمانده نظامی باید مسئولیت‌ قانونی فرمان‌های خود را بپذیرد. اما اگر جنگ‌افزاری گزینه‌ی انهدام را انتخاب و مدرسه‌ای با ۳۰۰ کودک دانش‌آموز را بمباران کند، چه کسی مسئول چنین کشتاری خواهد بود؟ همان دستگاه؟ برنامه‌نویس آن؟ در این وضعیت، گزینه‌ی دیگری نداریم: نمی‌توانیم از انسان‌های دست‌اندرکار چشم بپوشیم.»

کشمکش جایگزین‌ناپذیر

نولن گِرتس، استاد فلسفهی دانشگاه توِنته  (Twente) در هلند،  نیز همین نگرش را دارد: «سنت فکری 'جنگ منصفانه' به آگوستین قدیس بازمی‌گردد. این سنت به ما می‌آموزد که از نظر اخلاقی ناشایسته است که رزمندگان از کشتن انسان‌های دیگر خشنود باشند. جنگ منصفانه تنها در حالتی ممکن است که بازیگران آن نه گرفتار هیچ‌انگاری باشند، نه دگرآزاری، و اساساً از کشتن بیزار باشند، اما تنها به اقتضای وضعیت جنگی، بر خلاف اصول اخلاقی بنیادین خود عمل کنند، زیرا از نظر آن‌ها موضوع دفاع مجاز یا جلوگیری از خشونت گسترده‌تر در میان است. این ویژگی‌ها وضعیتی پیچیده را پیش می‌کشند: جنگ تنها در وضعی منصفانه می‌شود که پیش‌برندگان‌اش، از بکارگیری آن ناخشنود باشند. با کاربرد ماشین‌های خودجنگ این کشمکش درونی و ناخشنودی از بین می‌رود.»

یقیناً، همین‌‌طور است. اما عکس این استدلال نیز صادق است: اگر بتوان با بکارگیری ربات‌ها در اجرای جنگ‌، آن‌ها را کامل، جایگزین انسان کرد و بی هیچ خطر جانی‌ای حتا برای یک سرباز و بدون تصمیم‌گیری‌های مرگبار با عذاب وجدان برای هدایت‌کنندگان هواپیماهای بی‌سرنشین، به یک پیروزی نظامی دست یافت، چرا نباید با چنین شیوه‌ای، از هرگونه رنج مردم خودی کاست؟ گرتس در توضیح این موضوع می‌گوید:‌ «به نظرم، این استدلال روا نیست، چون نقش فناوری در این میان، صرفاً ابزاری و خنثی نیست. تکنیک در رفتار و فرایندهای تصمیم‌گیری اخلاقی ما اثر می‌گذارد، به آن‌ها شکل می‌دهد و در آن‌ها نفوذ می‌کند. فرض کنیم آن‌طور که در استدلال پیشین شما آمد، وقتی می‌‌جنگید و توان دشمن را تحلیل می‌برید، هیچ بهای انسانی و روانی‌ای با آن همراه نباشد، زیرا ربات‌ها کار کثیف کشتار را انجام می‌دهند. این ویژگی پذیرش جنگ را در افکار عمومی و از دید یک دولت یا ستاد فرماندهی با افزایش چشمگیری روبه‌رو می‌کند. به عبارت دیگر، کار کشتن بسیار ساده‌تر می‌شود. جهانی پر از ربات‌ را با مجوز کشتار تصور کنید! آیا چنین جهانی در نظرتان خوشایند جلوه می‌کند؟ »

اما گستره‌ی سومی با استلزام‌های سنگین اخلاقی نیز وجود دارد که هوش مصنوعی در آن شتابان پیشرفت می‌کند: پزشکی. «واتسون»، ابررایانه‌ی شرکت آی‌بی‌ام، که پیش‌تر برنده‌ی مسابقه‌ی تلویزیونی جِپِردی در زمینه‌ی معلومات عمومی در آمریکا، شده است، کمی قبل، در دانشگاه توکیو در بررسی زن بیماری، پس از سنجش ۲۰ میلیون گزارش پژوهشی در ۱۰ دقیقه، نوع کمیابی از سرطان خون را تشخیص داد. این رایانه حتا روش درمانی مناسب برای بیماری را نیز پیشنهاد کرد. اما فرض کنید هوش مصنوعی در تشخیص بیماری خطایی جدی مرتکب شود. آن‌وقت چه کسی مسئول آن خطا است؟ کِنِث دبلیو گودمن، استاد علوم پزشکی و مدیر موسسه‌ی اخلاق زیستی در دانشگاه میامی آمریکا، در پاسخ به این پرسش می‌گوید: «در این مورد، مشکل بزرگی در نسبت دادن کنش‌ها به کنشگران وجود دارد. ماجرای جراحی را در نظر بگیریم که از ده سال قبل، یک دستگاه جراحی را با موفقیت به کار گرفته است. در عملی دشوار، این دستگاه با نقص فنی روبه‌رو می‌شود و بیمار آسیب می‌بیند. آیا جراح مسئول آسیب به بیمار است؟ بله، البته اگر موضوع را این‌گونه در نظر بگیریم که جراح جایگاهی مانند ناخدای کشتی دارد و در نتیجه، باید مسئولیت بروز رویدادها را بپذیرد. اما به باور من، در مورد این جراح، بیشتر با مسئولیت مشترک روبه‌رو هستیم. سامانه‌های پشتیبانِ تصمیم‌های درمانی که رفته‌رفته کاربرد بیشتری می‌یابند، ما را به دورانی می‌رسانند که در آن رده‌های مسئولیتی بسیاری وجود دارند. مسئولیت‌هایی مانند این‌که چه کسی پایگاه داده‌هایی را طراحی کرده که هوش مصنوعی رایانه‌ها از آن استفاده می‌کند؟ چه کسی برنامه‌نویس آن بوده است؟ این‌ پرسش‌ها زمانی پیچیده‌تر می‌شوند که بیشتر کدهای کاربردی در برنامه‌ی سامانه‌های پزشکی را چندین نفر نوشته باشند. منشأ بعضی از آن کدها، برنامه‌های متن‌باز است که محققان یا شرکت‌ها، آن‌ها را برای کاربردی خاص تغییر داده‌اند. بنا بر این، مجبور خواهیم بود برای چنین سرزمین بی‌مالکی قاعده‌های بین‌المللی تعریف کنیم.»

پیتر آسارو که توسعه‌ی هوش مصنوعی در زمینه‌ی پزشکی را نیز دنبال می‌کند، در تکمیل این گفته‌ها، هرچند به‌دور از عاطفه و احساسات، توضیح می‌دهد: «بیمارستان‌ها هنگام تخصیص منابع کمیاب مانند خون برای انتقال به بیمار یا اندام‌ برای جراحی پیوند، سنجشگری‌های اخلاقی دشواری پیش رو دارند. برای نمونه، اولویت با کدام بیماران است؟ در اینجا موردی را پیش رو داریم که ذهنیت پزشکان، همدردی آنها با بیمارانی خاص یا حتی مبلغ پولی که بیمار می‌تواند برای درمان حیاتی خود هزینه کند، ممکن است خطر تحریف تصمیم‌ها به نفع فردی مشخص را در پی داشته باشد. در این زمینه‌ی کاملاً محدود شاید تصمیم‌های سامانه‌ای با هوش مصنوعی واقع‌بینانه‌تر و از نظر اخلاقی بهتر باشد.»‌

آیا دگرگونی با گذشت زمان خواهد رسید؟

آن‌گونه که طبق یافته‌های ما به نظر می‌رسد، کاربرد هوش مصنوعی در پزشکی یکی از موردهای بسیار کم‌شماری است که در آن، انسان از نظر اخلاقی نسبت به رایانه با خطر به دست دادن داوری‌های اخلاقی ضعیف‌تری روبه‌رو است. اما فراتر از آن چطور؟ گودمن می‌گوید: «ماجرایی از روزهای نخست ایجاد هوش مصنوعی وجود دارد که به نظرم فوق‌العاده است. سه شیئ را در برابر یک ربات قرار داده‌اند. یک کره، یک هرم و یک مکعب چوبی. آزمایشگر از ربات می‌خواهد هرم را روی مکعب قرار دهد. ربات موفق به انجام این کار می‌شود. آفرین! در آزمایش بعدی قرار است، جسم کره‌ای‌شکل را روی مکعب قرار دهد. ربات تلاش می‌کند، اما کره از روی مکعب فرومی‌غلتد. ربات بارها و بارها تلاش می‌کند که کره را روی مکعب قرار دهد. نمی‌داند که این کار ناممکن است. این ماجرا پند روشنگری برای زمانه‌ی ما دارد: داوری‌های اخلاقی و آداب رفتار ما، در پیش‌زمینه‌ی خود، مشروط به آگاهی‌های تلویحی و ضمنی‌ای هستند که همیشه، قابل توضیح و برنامه‌ریزی نیستند، زیرا تعداد بی‌شماری از آن دانسته‌های پیش‌زمینه‌ای وجود دارد. لودویک ویتگنشتَین، فیلسوف اتریشی، این عرصه را محدوده‌ی اطمینان یا یقینیات می‌نامد.»

در این زمینه‌، نمونه‌‌ی موجزی به ذهنم می‌رسد که ویتگنشتَین آن را مطرح کرده است: شخصی که دست همسایه‌اش را قطع می‌کند تا ببیند آیا دست دیگری جای آن رشد می‌کند یا خیر، دانشمندی نیست که آزمایشی علمی انجام می‌دهد، بلکه یک دیوانه است. گودمن در همین زمینه می‌گوید: «دقیقا! مشکل همینجا است! ما انسان‌ها هرگز راضی نمی‌شویم که بی‌چون‌وچرا از قاعده‌ای پیروی کنیم، چون قاعده‌های مفصل و بدیهی تنها محدوده‌ی کوچکی از کنش انسان را در بر می‌گیرند. تفاوت میان کردار هوش مصنوعی و انسان نه تنها در تفسیر زمینه‌های آن عملکرد، بلکه در این ویژگی نهفته که انسان شمار بسیاری از اصول را چنان تضمینی و بدیهی می‌بیند که به هیچ وجه به بیان آن‌ها نیازی نیست و دقیقاً به همین دلیل است که داوری اخلاقی انسان در نظارت بر ماشین‌ها امری الزامی است.» شاید باید این پرسش را هم به گفته‌ی گودمن افزود: آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟

پانویس‌ها

[1] در سال ۱۹۶۷، فیلیپا فوت، فیلسوف بریتانیایی، این آزمایش فکری را ابداع کرد: تراموایی شتابان به سوی پنج نفر در حرکت است و در این وضعیت، خطر زیر گرفتن آن‌ها وجود دارد. اگر شما شاهد چنین صحنه‌ای باشید، سوزن ریل تراموا را به گونه‌ای تغییر می‌دهید که با انتقال مسیر حرکت به ریل کناری که فقط یک نفر از آن می‌گذرد، همان یک نفر را بر اثر تصادف از پا درآید و پنج نفر دیگر زنده بمانند؟

[2] دو رویکرد فکری پیامدمحوری و اخلاق وظیفه‌گرا را می‌توان این‌گونه مقایسه کرد: برای پیامدباوران پیامدهای عمل اولویت دارد. اگر این پیامدها خوشایند باشند، خود آن کنش نیز خوشایند است. مهمترین نمایندگان این مکتب فکری جرمی بنتام (۱۸۳۲ - ۱۷۴۸) و جان استوارت میل (۱۸۷۳ - ۱۸۰۶)، فیلسوفان انگلیسی، هستند.

مهمترین نمود مکتب پیامدباوری (Konsequenzialismus)، سودباوری (Utilitarismus) است (برگرفته از ریشه‌ی لاتین utilis  به معنای مفید یا سودمند). برای سودمندباوران، معیار تعیین‌کننده، بیشترین میزان فایده برای بیشترین افراد ممکن است. برای نمونه، خودروی برنامه‌ریزی‌شده طبق این رویکرد، در صورت بیشتر شدن شمار کل کشته‌های برجامانده در راه حفاظت از جان سرنشینان خود نسبت به تعداد کل سرنشینان، خطر جانی برای سرنشینان را نادیده می‌گیرد تا تعداد بیشتری کشته نشوند.

در مقابل، اخلاق وظیفه‌گرا (deontologische Ethik) (از ریشه‌ی یونانی deon به‌معنای وظیفه) اساساً رویکرد متفاوتی دارد. در این گرایش، معیار الزام‌آور برای کارهای نیک اخلاقی، نه پیامدهای آن‌ها، بلکه قانون‌ها و حکم‌هایی است که هر عمل، جدا از زمینه‌هایش، باید براساس آن‌ها انجام بگیرد. برجسته‌ترین نماینده‌ی این رویکرد ایمانوئل کانت (۱۸۰۴–۱۷۲۴)، فیلسوف آلمانی، است. برای نمونه، خودروی برنامه‌ریزی‌شده طبق این رویکرد اخلاقی، ارزش زندگی انسان‌ها و تعداد جان‌باختگان احتمالی را با یکدیگر مقایسه نمی‌کند، بلکه به دنبال اجرای اصل مهم برنامه‌ریزی خود است: «همیشه از جان سرنشینان محافظت کن!»

بیشتر بخوانید

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.