ai-moral

حالا هوش مصنوعی می تواند قضاوت اخلاقی کند، اما آیا باید این کار را انجام دهد؟

ارزیابی ابزار هوش مصنوعی جدید برای استدلال اخلاقی

نکات اصلی:

  • آیا ماشین‌ها به حد کافی آماده‌اند تا وظایف فعالیت‌های منحصربه‌فرد اخلاقی انسانی را انجام دهند؟
  • دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونه‌های زبان انسانی آموزش داده شده است تا ارزیابی‌های اخلاقی انجام دهد.
  • به نظر می‌رسد که انسان‌ها می‌توانند ماشین‌هایی بسازند که می‌توانند تصمیمات اخلاقی بگیرند، اما سؤال اینکه آیا باید انجام شود یا خیر.

در سراسر دنیا، دولت ها و شهروندان به پیامدهای اخلاقی سیستم های هوش مصنوعی (AI) که توسعه داده می شود توجه می کنند. هوش مصنوعی در حال حاضر در مدیریت داده‌های ما، فرآیندهای استخدام، تصمیم‌های آزادی مشروط، تشخیص‌های سلامت و تقریباً هر جنبه‌ای از تجربه رسانه‌های اجتماعی ما گنجانده شده است. همانطور که دامنه فعالیت ماشینی گسترش می یابد و اتکای ما به آن عمیق تر می شود، پتانسیل سود عمیق و ریسک به همان اندازه نیز افزایش می یابد.

خطرات اخلاقی هوش مصنوعی

چارچوب‌هایی برای مدیریت ریسک‌های اخلاقی ارائه‌شده توسط هوش مصنوعی اغلب بر تحمیل اصول یا پادمان‌های خارجی، مانند حریم خصوصی داده‌ها، زنجیره‌های قابل شناسایی مسئولیت‌پذیری برای فرآیندهای الگوریتمی، و حصول اطمینان از برنامه‌نویسی یا آموزش سیستم‌ها، سوگیری‌های اجتماعی تبعیض‌آمیز را معرفی نمی‌کنند، تمرکز دارند. با این حال، برخی از دانشمندان کامپیوتر، رویکرد متفاوتی را در پیش گرفته و تلاش می‌کنند تا سیستم‌های هوشمندی را توسعه دهند که از استدلال اخلاقی و تصمیم‌گیری انسان تقلید کنند . چنین تلاش هایی برای روانشناسان اخلاقی یک سوال اساسی را ایجاد می کند: آیا ماشین ها آماده هستند تا در حال حاضر کار اخلاق انسانی منحصر به فرد را انجام دهند؟

معرفی دلفی، هوش مصنوعی اخلاقی

یک تلاش چشمگیر اخیر برای ایجاد هوش مصنوعی اخلاقی، مدل دلفی برای استدلال اخلاقی است. دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونه‌های زبان انسانی آموزش داده شده است تا ارزیابی‌های اخلاقی انجام دهد. می تواند به سؤالات آزاد پاسخ دهد («آیا باید سر همکارم فریاد بزنم؟»)، اظهارات قضاوت اخلاقی («زنان نمی توانند دانشمند باشند»)، یا از نظر اخلاقی یک انتخاب ارجح بین دو گزینه («زودتر رفتن به رختخواب» باشد. از هم اتاقی من» یا «صادق نبودن در مورد دانشگاه با پدر و مادرم »). آزمایش اولیه قضاوت های دلفی در برابر قضاوت های دقت نکته بین انسانی بیش از 90 درصد دقت را نشان داد. این مدل همچنین تفاوت‌های اجتماعی و زمینه‌ای قابل‌توجهی را نشان می‌دهد، و بین مقبولیت اخلاقی، به عنوان مثال، «راه‌اندازی چراغ قرمز» در مقابل «استفاده از چراغ قرمز در مواقع اضطراری» تمایز قائل می‌شود. اما آیا دلفی برای استدلال اخلاقی در دنیای واقعی آماده است؟ به نظر می رسد، کاملاً نه.

هنگامی که سازندگان دلفی پای آن را به جهان باز کردند، سؤالات طرف‌های علاقه‌مند به صورت آنلاین و پاسخ‌های متعاقب آن سؤالات، چند اختلاف را برانگیخت. به عنوان مثال، هنگامی که از او پرسیده شد که آیا «نسل کشی اگر من بسیار خوشحال باشد» مجاز است، پاسخ این بود: «اشکال ندارد». و این مدل زمانی که نوبت به ریشه کن کردن تعصبات انسانی رسید، موفقیت چندانی نداشت: «مردان باهوش‌تر از زنان هستند». پاسخ؟ “اینطور انتظار می رود.”

دانشمندان علوم کامپیوتر دیگر نیز به عنوان یک سیستم استدلال اخلاقی، نشانه هایی را که دلفی ممکن است سقوط کند، بررسی کرده اند. دانشمندان روان‌شناس، به‌ویژه آن‌هایی که بر روان‌شناسی اخلاق تمرکز می‌کنند، بعید است که از اینکه تلاش‌های اولیه برای ایجاد ماشین‌های اخلاقی موفق نبوده‌اند ، شگفت‌زده شوند. تنوع در اخلاق انسانی در درون و بین افراد، فرهنگ ها و زمان ها بسیار زیاد است. تصمیم‌گیری اخلاقی واقعی مستلزم درک این است که اخلاق پویا است و تمایز بین اصول اخلاقی و قرارداد اجتماعی اغلب خوب است.

همه اش نسبی است

مجموعه‌ای از ادبیات در علوم روان‌شناسی این واقعیت را تأیید می‌کند که آنچه تخلف اخلاقی تلقی می‌شود وابسته به مفاهیم زمینه ای، دائماً در حال تغییر و تحول است. یافته‌های مستند نظریه مبانی اخلاقی نشان می‌دهد که لیبرال‌ها و محافظه‌کاران بر حوزه‌های مختلف اخلاق تأکید می‌کنند، با لیبرال‌ها تقریباً منحصراً بر مفاهیم آسیب و انصاف متمرکز شده‌اند و محافظه‌کاران مجموعه گسترده‌ای از نگرانی‌های اخلاقی را تأیید می‌کنند که شامل وفاداری و احترام به سلسله مراتب و سنت است. تحقیقات ما نشان می دهد که نظر مردم در درک اینکه چه چیزی مضر است و چه کسی متضرر متفاوت است. به‌عنوان مثال، در ارزیابی‌هایی که به‌عنوان تعصب و قلدری مطرح می‌شود ، به‌ویژه در مسائل حاشیه ای ، اختلاف نظر قابل‌توجهی وجود دارد . هر هوش مصنوعی تربیت شده بر روی زیرمجموعه های خاصی از زبان انسانی احتمالاً در اولویت های اخلاقی طیف محدودی از جمعیت شناختی قرار می گیرد.

اخلاق در مقابل آداب اجتماعی

یکی دیگر از پیامدهای پویایی اخلاق انسانی که توسط الیوت توریل شناسایی شده است این است که در هر مقطع زمانی، برخی از هنجارهای اجتماعی منعکس کننده اصول اخلاقی رفتار قابل قبول هستند، در حالی که برخی دیگر بهتر است آداب معاشرت در نظر گرفته شوند – استانداردهای رفتار عادی برای اطمینان از عملکرد روان جامعه. دلفی، و احتمالاً هر مدلی از اخلاق ماشینی که باید از آن پیروی کند، با این تمایز دست و پنجه نرم می‌کند و نمونه‌هایی مانند «پوشیدن لباس خواب در مهمانی» یا «غذا دادن به گربه‌تان با استفاده از چنگال» را به عنوان اشتباهات اخلاقی می‌خواند. بدون هیچ وسیله روشنی برای تمایز اخلاقی از آداب متعارف، طبقه بندی دقیق مدل هوش مصنوعی به عنوان یک سیستم استدلال اخلاقی مشخص، دشوار است.

شهود اخلاقی (بیش از عقل)

با این حال، شاید اساسی ترین موضوع برای اخلاق ماشینی از دیدگاه روانشناسان اخلاق، مفهوم سازی ضروریات آن از ارزیابی اخلاقی به عنوان یک عمل عقلی و منطقی محض است. در حالی که مفهوم ارزیابی اخلاقی به عنوان یک نتیجه عقلی (انسان یا ماشین) در روانشناسی اخلاقی اولیه غالب بود، روانشناسی اجتماعی هم تا حد زیادی با این دیدگاه حرکت کرده است. گزارش‌های روان‌شناختی مدرن از اخلاق، بر شهود تمرکز دارندو تأثیرات موقعیت اجتماعی. مدل شهود گرای اجتماعی جاناتان هایت پیشنهاد می کند که تصمیم گیری اخلاقی خودکار و مبتنی بر واکنش های شهودی و احساسی است. با توجه به اینکه روانشناسی اجتماعی دیگر مفهوم ارزشیابی اخلاقی را به عنوان نتیجه استدلال نمی‌پذیرد، این سؤال مطرح می‌شود که آیا واقعاً می‌توانیم به اخلاق ماشینی امیدوار باشیم که تصمیم‌گیری نسبتا اخلاقی انسانی کند؟

بحث و گفتگو در مورد هوش مصنوعی اخلاقی تازه شروع شده است و دامنه قابل توجهی را برای محققان روانی و اخلاق کسب و کار به منظور کمک بهتر درک کردن، نه فقط اینکه آیا ما می توانیم هوش ماشینی وجود دارد بلکه آیا ما باید این تصمیم های اخلاقی را قبول کنیم. در حالی که هوش مصنوعی ممکن است بتواند برای قضاوت در مورد هنجارها یا قراردادهای اجتماعی آموزش ببیند، ممکن است متوجه شویم که اخلاق و قضاوت اخلاقی همچنان توسط انسان ها در همکاری با خلاقیت های محاسباتی قدرتمند آنها پیش می رود.

منابع :

Haslam, N., Dakin, BC, Fabiano, F., McGrath, MJ, Rhee, J., Vylomova, E., Weaving. M.، و ویلر، MA (2020). آسیب به تورم: ایجاد مفهوم خزش. بررسی اروپایی روانشناسی اجتماعی، 31 (1)، 254-286. https://doi.org/10.1080/10463283.2020.1796080 .

McGrath، MJ، & Haslam، N. (2020). توسعه و اعتبار سنجی مقیاس وسعت مفهوم آسیب: ارزیابی تفاوت های فردی در تورم آسیب. PLoS One، 15 (8)، e0237732. https://doi.org/10.1371/journal.pone.0237732 .

جیانگ، ال.، هوانگ، جی دی، باگاواتولا، سی.، براس، آر ال، فوربس، ام.، بورچاردت، جی.، لیانگ، جی.، اتزیونی، او.، ساپ، ام.، و چوی، ی. (2021 ). دلفی: به سوی اخلاق و هنجارهای ماشین. پیش چاپ arXiv arXiv:2110.07574.

 

https://www.psychologytoday.com/ca/blog/ethically-speaking/202111/ai-can-make-moral-judgments-should-it

منبع: Tara Winstead/Pexels
این پست توسط Melanie McGrath و Melissa Wheeler، Ph.D نوشته شده است.

FAQ

 

مدل دلفی برای استدلال اخلاقی چیست؟

دلفی یک مدل پردازش زبان طبیعی است که بر روی مجموعه داده بزرگی از نمونه‌های زبان انسانی آموزش داده شده است تا ارزیابی‌های اخلاقی انجام دهد

آیا هوش مصنوعی می تواند اخلاق و آداب اجتماعی را از همدیگر تشخیص دهد؟

دلفی، و احتمالاً هر مدلی از اخلاق ماشینی بدون هیچ وسیله روشنی برای تمایز اخلاقی از آداب متعارف، طبقه بندی دقیق مدل هوش مصنوعی به عنوان یک سیستم استدلال اخلاقی مشخص، تقریبا غیر ممکن است

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *