حالا هوش مصنوعی می تواند قضاوت اخلاقی کند، اما آیا باید این کار را انجام دهد؟
ارزیابی ابزار هوش مصنوعی جدید برای استدلال اخلاقی
نکات اصلی:
- آیا ماشینها به حد کافی آمادهاند تا وظایف فعالیتهای منحصربهفرد اخلاقی انسانی را انجام دهند؟
- دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونههای زبان انسانی آموزش داده شده است تا ارزیابیهای اخلاقی انجام دهد.
- به نظر میرسد که انسانها میتوانند ماشینهایی بسازند که میتوانند تصمیمات اخلاقی بگیرند، اما سؤال اینکه آیا باید انجام شود یا خیر.
در سراسر دنیا، دولت ها و شهروندان به پیامدهای اخلاقی سیستم های هوش مصنوعی (AI) که توسعه داده می شود توجه می کنند. هوش مصنوعی در حال حاضر در مدیریت دادههای ما، فرآیندهای استخدام، تصمیمهای آزادی مشروط، تشخیصهای سلامت و تقریباً هر جنبهای از تجربه رسانههای اجتماعی ما گنجانده شده است. همانطور که دامنه فعالیت ماشینی گسترش می یابد و اتکای ما به آن عمیق تر می شود، پتانسیل سود عمیق و ریسک به همان اندازه نیز افزایش می یابد.
خطرات اخلاقی هوش مصنوعی
چارچوبهایی برای مدیریت ریسکهای اخلاقی ارائهشده توسط هوش مصنوعی اغلب بر تحمیل اصول یا پادمانهای خارجی، مانند حریم خصوصی دادهها، زنجیرههای قابل شناسایی مسئولیتپذیری برای فرآیندهای الگوریتمی، و حصول اطمینان از برنامهنویسی یا آموزش سیستمها، سوگیریهای اجتماعی تبعیضآمیز را معرفی نمیکنند، تمرکز دارند. با این حال، برخی از دانشمندان کامپیوتر، رویکرد متفاوتی را در پیش گرفته و تلاش میکنند تا سیستمهای هوشمندی را توسعه دهند که از استدلال اخلاقی و تصمیمگیری انسان تقلید کنند . چنین تلاش هایی برای روانشناسان اخلاقی یک سوال اساسی را ایجاد می کند: آیا ماشین ها آماده هستند تا در حال حاضر کار اخلاق انسانی منحصر به فرد را انجام دهند؟
معرفی دلفی، هوش مصنوعی اخلاقی
یک تلاش چشمگیر اخیر برای ایجاد هوش مصنوعی اخلاقی، مدل دلفی برای استدلال اخلاقی است. دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونههای زبان انسانی آموزش داده شده است تا ارزیابیهای اخلاقی انجام دهد. می تواند به سؤالات آزاد پاسخ دهد («آیا باید سر همکارم فریاد بزنم؟»)، اظهارات قضاوت اخلاقی («زنان نمی توانند دانشمند باشند»)، یا از نظر اخلاقی یک انتخاب ارجح بین دو گزینه («زودتر رفتن به رختخواب» باشد. از هم اتاقی من» یا «صادق نبودن در مورد دانشگاه با پدر و مادرم »). آزمایش اولیه قضاوت های دلفی در برابر قضاوت های دقت نکته بین انسانی بیش از 90 درصد دقت را نشان داد. این مدل همچنین تفاوتهای اجتماعی و زمینهای قابلتوجهی را نشان میدهد، و بین مقبولیت اخلاقی، به عنوان مثال، «راهاندازی چراغ قرمز» در مقابل «استفاده از چراغ قرمز در مواقع اضطراری» تمایز قائل میشود. اما آیا دلفی برای استدلال اخلاقی در دنیای واقعی آماده است؟ به نظر می رسد، کاملاً نه.
هنگامی که سازندگان دلفی پای آن را به جهان باز کردند، سؤالات طرفهای علاقهمند به صورت آنلاین و پاسخهای متعاقب آن سؤالات، چند اختلاف را برانگیخت. به عنوان مثال، هنگامی که از او پرسیده شد که آیا «نسل کشی اگر من بسیار خوشحال باشد» مجاز است، پاسخ این بود: «اشکال ندارد». و این مدل زمانی که نوبت به ریشه کن کردن تعصبات انسانی رسید، موفقیت چندانی نداشت: «مردان باهوشتر از زنان هستند». پاسخ؟ “اینطور انتظار می رود.”
دانشمندان علوم کامپیوتر دیگر نیز به عنوان یک سیستم استدلال اخلاقی، نشانه هایی را که دلفی ممکن است سقوط کند، بررسی کرده اند. دانشمندان روانشناس، بهویژه آنهایی که بر روانشناسی اخلاق تمرکز میکنند، بعید است که از اینکه تلاشهای اولیه برای ایجاد ماشینهای اخلاقی موفق نبودهاند ، شگفتزده شوند. تنوع در اخلاق انسانی در درون و بین افراد، فرهنگ ها و زمان ها بسیار زیاد است. تصمیمگیری اخلاقی واقعی مستلزم درک این است که اخلاق پویا است و تمایز بین اصول اخلاقی و قرارداد اجتماعی اغلب خوب است.
همه اش نسبی است
مجموعهای از ادبیات در علوم روانشناسی این واقعیت را تأیید میکند که آنچه تخلف اخلاقی تلقی میشود وابسته به مفاهیم زمینه ای، دائماً در حال تغییر و تحول است. یافتههای مستند نظریه مبانی اخلاقی نشان میدهد که لیبرالها و محافظهکاران بر حوزههای مختلف اخلاق تأکید میکنند، با لیبرالها تقریباً منحصراً بر مفاهیم آسیب و انصاف متمرکز شدهاند و محافظهکاران مجموعه گستردهای از نگرانیهای اخلاقی را تأیید میکنند که شامل وفاداری و احترام به سلسله مراتب و سنت است. تحقیقات ما نشان می دهد که نظر مردم در درک اینکه چه چیزی مضر است و چه کسی متضرر متفاوت است. بهعنوان مثال، در ارزیابیهایی که بهعنوان تعصب و قلدری مطرح میشود ، بهویژه در مسائل حاشیه ای ، اختلاف نظر قابلتوجهی وجود دارد . هر هوش مصنوعی تربیت شده بر روی زیرمجموعه های خاصی از زبان انسانی احتمالاً در اولویت های اخلاقی طیف محدودی از جمعیت شناختی قرار می گیرد.
اخلاق در مقابل آداب اجتماعی
یکی دیگر از پیامدهای پویایی اخلاق انسانی که توسط الیوت توریل شناسایی شده است این است که در هر مقطع زمانی، برخی از هنجارهای اجتماعی منعکس کننده اصول اخلاقی رفتار قابل قبول هستند، در حالی که برخی دیگر بهتر است آداب معاشرت در نظر گرفته شوند – استانداردهای رفتار عادی برای اطمینان از عملکرد روان جامعه. دلفی، و احتمالاً هر مدلی از اخلاق ماشینی که باید از آن پیروی کند، با این تمایز دست و پنجه نرم میکند و نمونههایی مانند «پوشیدن لباس خواب در مهمانی» یا «غذا دادن به گربهتان با استفاده از چنگال» را به عنوان اشتباهات اخلاقی میخواند. بدون هیچ وسیله روشنی برای تمایز اخلاقی از آداب متعارف، طبقه بندی دقیق مدل هوش مصنوعی به عنوان یک سیستم استدلال اخلاقی مشخص، دشوار است.
شهود اخلاقی (بیش از عقل)
با این حال، شاید اساسی ترین موضوع برای اخلاق ماشینی از دیدگاه روانشناسان اخلاق، مفهوم سازی ضروریات آن از ارزیابی اخلاقی به عنوان یک عمل عقلی و منطقی محض است. در حالی که مفهوم ارزیابی اخلاقی به عنوان یک نتیجه عقلی (انسان یا ماشین) در روانشناسی اخلاقی اولیه غالب بود، روانشناسی اجتماعی هم تا حد زیادی با این دیدگاه حرکت کرده است. گزارشهای روانشناختی مدرن از اخلاق، بر شهود تمرکز دارندو تأثیرات موقعیت اجتماعی. مدل شهود گرای اجتماعی جاناتان هایت پیشنهاد می کند که تصمیم گیری اخلاقی خودکار و مبتنی بر واکنش های شهودی و احساسی است. با توجه به اینکه روانشناسی اجتماعی دیگر مفهوم ارزشیابی اخلاقی را به عنوان نتیجه استدلال نمیپذیرد، این سؤال مطرح میشود که آیا واقعاً میتوانیم به اخلاق ماشینی امیدوار باشیم که تصمیمگیری نسبتا اخلاقی انسانی کند؟
بحث و گفتگو در مورد هوش مصنوعی اخلاقی تازه شروع شده است و دامنه قابل توجهی را برای محققان روانی و اخلاق کسب و کار به منظور کمک بهتر درک کردن، نه فقط اینکه آیا ما می توانیم هوش ماشینی وجود دارد بلکه آیا ما باید این تصمیم های اخلاقی را قبول کنیم. در حالی که هوش مصنوعی ممکن است بتواند برای قضاوت در مورد هنجارها یا قراردادهای اجتماعی آموزش ببیند، ممکن است متوجه شویم که اخلاق و قضاوت اخلاقی همچنان توسط انسان ها در همکاری با خلاقیت های محاسباتی قدرتمند آنها پیش می رود.
منابع :
Haslam, N., Dakin, BC, Fabiano, F., McGrath, MJ, Rhee, J., Vylomova, E., Weaving. M.، و ویلر، MA (2020). آسیب به تورم: ایجاد مفهوم خزش. بررسی اروپایی روانشناسی اجتماعی، 31 (1)، 254-286. https://doi.org/10.1080/10463283.2020.1796080 .
McGrath، MJ، & Haslam، N. (2020). توسعه و اعتبار سنجی مقیاس وسعت مفهوم آسیب: ارزیابی تفاوت های فردی در تورم آسیب. PLoS One، 15 (8)، e0237732. https://doi.org/10.1371/journal.pone.0237732 .
جیانگ، ال.، هوانگ، جی دی، باگاواتولا، سی.، براس، آر ال، فوربس، ام.، بورچاردت، جی.، لیانگ، جی.، اتزیونی، او.، ساپ، ام.، و چوی، ی. (2021 ). دلفی: به سوی اخلاق و هنجارهای ماشین. پیش چاپ arXiv arXiv:2110.07574.
https://www.psychologytoday.com/ca/blog/ethically-speaking/202111/ai-can-make-moral-judgments-should-it
منبع: Tara Winstead/Pexels
این پست توسط Melanie McGrath و Melissa Wheeler، Ph.D نوشته شده است.
- فناوری ساختمان های هوشمند
- استفاده از هوش مصنوعی برای ارائه یک پلت فرم هوش تجاری
- شرکت خدمات هوش مصنوعی مورفیو (Morphio)
- دانشگاه کنکوردیا و شرکت اریکسون کانادا در هوش مصنوعی همکاری می کنند
مدل دلفی برای استدلال اخلاقی چیست؟
دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونههای زبان انسانی آموزش داده شده است تا ارزیابیهای اخلاقی انجام دهد
آیا هوش مصنوعی می تواند اخلاق و آداب اجتماعی را از همدیگر تشخیص دهد؟
دلفی، و احتمالاً هر مدلی از اخلاق ماشینی بدون هیچ وسیله روشنی برای تمایز اخلاقی از آداب متعارف، طبقه بندی دقیق مدل هوش مصنوعی به عنوان یک سیستم استدلال اخلاقی مشخص، تقریبا غیر ممکن است