کشف تقلب،بهینهسازی تدارکات، نگارش هنر، انجام تحقیقات، ارائه ترجمه، همه این سیستمهای ماشینی هوشمند زندگی ما را برای بهتر شدن تغییر میدهند.
همانطور که این سیستم ها توانمندتر می شوند، دنیای ما هم کارآمدتر و در نتیجه غنی تر می شود.
غولهای فناوری مثل آلفابت، آمازون، فیسبوک، آیبیام و مایکروسافت – و همچنین افرادی مثل استیون هاوکینگ و ایلان ماسک – بر این باورند که اکنون زمان مناسبی برای صحبت در مورد چشمانداز تقریباً بیکران هوش مصنوعی است.
از بسیاری جهات، این به همان اندازه که برای فناوری نوظهور مرزی جدید است برای اخلاق و ارزیابی ریسک است.
پس کدام مسائل و صحبت ها کارشناسان هوش مصنوعی را بیخواب می کند؟
1. بیکاری.
بعد از بیکاری چه اتفاقی می افتد؟
سلسله مراتب کار در درجه اول به اتوماسیون مربوط می شود.
همانطور که راههایی برای خودکارسازی مشاغل ابداع کردهایم، میتوانیم فضایی را برای افراد ایجاد کنیم تا نقشهای پیچیدهتری را ایفا کنند، و از کار فیزیکی که بر جهان پیش از صنعتی شدن مسلط بود به کار مفهومی، که مشخصه کار استراتژیک و اداری در جامعه جهانیشده ما است، حرکت کنیم.
به حمل و نقل باری نگاه کنید: در حال حاضر میلیون ها نفر را در ایالات متحده مشغول کرده است.
اگر کامیون های خودران که وعده داده شده توسط ایلان ماسک تسلا در دهه آینده به طور گسترده در دسترس باشند، چه اتفاقی برای آنها خواهد افتاد؟
از سوی دیگر، اگر خطر کمتر تصادفات را در نظر بگیریم، کامیون های خودران یک انتخاب اخلاقی به نظر می رسند.
همین سناریو ممکن است برای کارکنان اداری و همچنین برای اکثریت نیروی کار در کشورهای توسعه یافته اتفاق بیفتد.
اینجاست که به این سوال می رسیم که چگونه وقت خود را بگذرانیم.
اکثر مردم هنوز به فروش وقت خود متکی هستند تا درآمد کافی برای تأمین زندگی خود و خانواده خود داشته باشند.
ما فقط میتوانیم امیدوار باشیم که این فرصت به مردم امکان میدهد تا در فعالیتهای غیر کارگری، مانند مراقبت از خانوادههای خود، تعامل با جوامع خود و یادگیری راههای جدید برای کمک به جامعه انسانی، معنا پیدا کنند.
اگر با این گذار موفق شویم، ممکن است روزی به گذشته نگاه کنیم و فکر کنیم که این وحشیانه بود که انسان ها مجبور بودند بیشتر زمان بیداری خود را بفروشند تا بتوانند فقط زندگی کنند.
2. نابرابری.
چگونه ثروت ایجاد شده توسط ماشین ها را توزیع کنیم؟
سیستم اقتصادی ما مبتنی بر جبران کمک به اقتصاد است که اغلب با استفاده از دستمزد ساعتی ارزیابی می شود. اکثر شرکت ها هنوز هم در مورد محصولات و خدمات به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت می تواند اتکا به نیروی انسانی را به شدت کاهش دهد و این بدان معناست که درآمد به دست افراد کمتری می رسد. در نتیجه، افرادی که مالکیت شرکتهای مبتنی بر هوش مصنوعی را دارند، تمام پول را به دست خواهند آورد.
ما در حال حاضر شاهد افزایش شکاف ثروت هستیم، جایی که بنیانگذاران استارت آپ بخش بزرگی از مازاد اقتصادی را که ایجاد می کنند به خانه می برند. در سال 2014، سه شرکت بزرگ در دیترویت و سه شرکت بزرگ در دره سیلیکون تقریباً همان درآمد ایجاد کردند … فقط در سیلیکون ولی 10 برابر کمتر کارمندان وجود داشت.
اگر واقعاً یک جامعه پس از کار را تصور می کنیم، چگونه یک اقتصاد منصفانه پس از کار را ساختار می دهیم؟
3. انسانیت.
ماشینها چگونه بر رفتار و تعامل ما تأثیر میگذارند؟
رباتهای باهوش مصنوعی در مدلسازی مکالمات و روابط انسانی بهتر و بهتر میشوند. در سال 2015، رباتی به نام یوجین گوستمن برای اولین بار برنده چالش تورینگ شد.
در این چالش، ارزیابهای انسانی از ورودی متن برای چت کردن با یک موجود ناشناخته استفاده کردند، سپس حدس زدند که آیا با یک انسان یا یک ماشین چت میکردند.
یوجین گوستمن بیش از نیمی از ارزیابیکنندگان را فریب داد تا فکر کنند با یک انسان صحبت میکنند.
این نقطه عطف تنها آغاز عصری است که در آن ما به طور مکرر با ماشینها به گونهای تعامل خواهیم داشت که گویی انسان هستند.
چه در خدمات مشتری و چه در فروش.
در حالی که توجه و مهربانی انسان ها برای شخص دیگری محدود است، ربات های مصنوعی می توانند منابع تقریبا نامحدودی را برای ایجاد روابط هدایت کنند.
اگرچه بسیاری از ما از این موضوع آگاه نیستیم، اما در حال حاضر شاهد این هستیم که چگونه ماشینها میتوانند مراکز پاداش را در مغز انسان فعال کنند.
فقط به سرفصل های click-bait و بازی های ویدیویی نگاه کنید. این سرفصلها اغلب با تست A/B بهینه میشوند، شکلی ابتدایی از بهینهسازی الگوریتمی برای محتوا برای جلب توجه ما.
از این روش و روشهای دیگر برای معتاد کردن بازیهای ویدیویی و موبایلی متعدد استفاده میشود.
اعتیاد به فناوری، مرز جدید وابستگی انسان است.
از سوی دیگر، شاید بتوان به کاربرد متفاوتی از نرم افزار فکر کرد که قبلاً در جهت دهی توجه انسان و تحریک برخی اقدامات مؤثر بوده است.
در صورت استفاده صحیح، این می تواند به فرصتی برای سوق دادن جامعه به سمت رفتار سودمندتر تبدیل شود. با این حال، در دستانی اشتباه می تواند مضر باشد.
4. حماقت مصنوعی.
چگونه می توانیم از اشتباهات محافظت کنیم؟
هوش از یادگیری ناشی می شود، چه انسان باشید و چه ماشین.
سیستمها معمولاً یک مرحله آموزشی دارند که در آن «یاد میگیرند» الگوهای درست را شناسایی کرده و بر اساس ورودیهای آنها عمل کنند.
هنگامی که یک سیستم به طور کامل آموزش داده شد، سپس می تواند وارد مرحله آزمایشی شود، جایی که نمونه های بیشتری با آن برخورد می کنند و ما می بینیم که چگونه کار می کند.
بدیهی است که مرحله آموزش نمی تواند تمام نمونه های ممکنی را که یک سیستم ممکن است در دنیای واقعی با آنها سر و کار داشته باشد پوشش دهد.
این سیستم ها را می توان به گونه ای فریب داد که انسان ها چنین نمی کنند.
برای مثال، الگوهای نقطهای تصادفی میتوانند ماشین را به «دیدن» چیزهایی که آنجا نیستند سوق دهند.
اگر به هوش مصنوعی متکی باشیم تا ما را وارد دنیای جدیدی از کار، امنیت و کارایی کنیم، باید اطمینان حاصل کنیم که دستگاه مطابق برنامه ریزی شده عمل می کند و مردم نمی توانند بر آن غلبه کنند تا از آن برای اهداف خود استفاده کنند.
5. روبات های نژادپرست.
چگونه تعصب هوش مصنوعی را از بین ببریم؟
اگرچه هوش مصنوعی قادر به سرعت و ظرفیت پردازش بسیار فراتر از انسان است، اما همیشه نمی توان به منصفانه و بی طرف بودن آن اعتماد کرد.
گوگل و شرکت مادرش آلفابت یکی از پیشتازان در زمینه هوش مصنوعی هستند، همانطور که در سرویس عکس گوگل دیده می شود، جایی که هوش مصنوعی برای شناسایی افراد، اشیا و صحنه ها استفاده می شود.
اما ممکن است اشتباه پیش برود، مانند زمانی که دوربین حساسیت نژادی را از دست داده است، یا زمانی که نرم افزاری که برای پیش بینی مجرمان آینده استفاده می شود، سوگیری علیه سیاه پوستان نشان می دهد.
ما نباید فراموش کنیم که سیستمهای هوش مصنوعی توسط انسانهایی ساخته میشوند که میتوانند مغرضانه و قضاوتکننده باشند.
بار دیگر، اگر به درستی استفاده شود، یا توسط کسانی که برای پیشرفت اجتماعی تلاش می کنند، استفاده شود، هوش مصنوعی می تواند کاتالیزوری برای تغییرات مثبت باشد.
6. امنیت.
چگونه هوش مصنوعی را در برابر دشمنان ایمن نگه داریم؟
هرچه یک فناوری قدرتمندتر شود، می توان از آن به دلایل ناپسند و همچنین به نفع استفاده کرد.
این نه تنها در مورد رباتهایی که برای جایگزینی سربازان انسانی یا سلاحهای خودران تولید میشوند، بلکه در مورد سیستمهای هوش مصنوعی که در صورت استفاده بدخواهانه میتوانند باعث آسیب شوند صدق میکند.
از آنجایی که این دعواها فقط در میدان نبرد انجام نخواهند شد، امنیت سایبری اهمیت بیشتری پیدا خواهد کرد.
به هر حال، ما با سیستمی روبهرو هستیم که سریعتر و توانمندتر از ما به مراتب بزرگ تر است.
7. جن های شیطانی.
چگونه از پیامدهای ناخواسته محافظت کنیم؟
این فقط دشمنان نیستند که باید نگران آنها باشیم.
اگر هوش مصنوعی خود علیه ما باشد چه؟ این به معنای تبدیل “شیطان” به شیوه قدرت انسان، یا شیوه ای که فجایع هوش مصنوعی در فیلم های هالیوود به تصویر کشیده می شود، نیست.
در عوض، ما می توانیم یک سیستم هوش مصنوعی پیشرفته را به عنوان یک “جن در چراغ جادو” تصور کنیم که می تواند آرزوها را برآورده کند، اما با عواقب غیرقابل پیش بینی وحشتناکی.
در مورد یک ماشین، بعید است که سوء نیت در بازی وجود داشته باشد، فقط عدم درک زمینه کاملی که در آن آرزو انجام شده است.
یک سیستم هوش مصنوعی را تصور کنید که از آن خواسته می شود سرطان را در جهان ریشه کن کند.
پس از محاسبات زیاد، فرمولی را بیرون میدهد که در واقع با کشتن همه افراد روی این سیاره، سرطان را به پایان میرساند.
کامپیوتر می توانست به هدف خود یعنی «نه سرطان دیگر» بسیار کارآمد دست یابد، اما نه آنطور که انسان ها در نظر داشتند.
8. تکینگی. (Singularity)
چگونه کنترل یک سیستم هوشمند پیچیده را حفظ کنیم؟
دلیل اینکه انسان در بالای زنجیره غذایی قرار دارد، دندان های تیز یا ماهیچه های قوی نیست.
تسلط انسان تقریباً به طور کامل ناشی از نبوغ و هوش ماست.
ما میتوانیم از حیوانات بزرگتر، سریعتر و قویتر استفاده کنیم، زیرا میتوانیم ابزارهایی برای کنترل آنها ایجاد کنیم و از آنها استفاده کنیم: هم ابزارهای فیزیکی مانند قفس و سلاحها و هم ابزارهای شناختی مانند آموزش و آمادهسازی.
این یک سوال جدی در مورد هوش مصنوعی ایجاد می کند: آیا روزی همان مزیت را نسبت به ما خواهد داشت؟
ما نمی توانیم فقط به “کشیدن دوشاخه” تکیه کنیم، زیرا یک ماشین به اندازه کافی پیشرفته ممکن است این حرکت را پیش بینی کند و از خود دفاع کند.
این همان چیزی است که برخی آن را «تکینگی» مینامند: زمانی که انسانها دیگر باهوشترین موجودات روی زمین نیستند.
9. حقوق ربات ها.
چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟
در حالی که دانشمندان علوم اعصاب هنوز روی کشف اسرار تجربه آگاهانه کار می کنند، ما بیشتر در مورد مکانیسم های اساسی پاداش و بیزاری می دانیم.
ما این مکانیسم ها را حتی با حیوانات ساده به اشتراک می گذاریم. به نوعی، ما در حال ساختن مکانیسمهای مشابهی برای پاداش و بیزاری در سیستمهای هوش مصنوعی هستیم.
به عنوان مثال، یادگیری تقویتی مشابه آموزش سگ است: بهبود عملکرد با یک پاداش مجازی تقویت می شود.
در حال حاضر، این سیستم ها نسبتاً سطحی هستند، اما پیچیده تر و شبیه به زندگی می شوند.
آیا میتوانیم سیستمی را زمانی که عملکردهای پاداش آن ورودی منفی به آن میدهند، در حال رنج بودن بدانیم؟
علاوه بر این، به اصطلاح الگوریتمهای ژنتیک با ایجاد نمونههای بسیاری از یک سیستم به طور همزمان کار میکنند، که تنها موفقترین آنها «بقا» میکنند و برای تشکیل نسل بعدی نمونهها ترکیب میشوند.
این در طول نسلهای زیادی اتفاق میافتد و راهی برای بهبود یک سیستم است. نمونه های ناموفق حذف می شوند. در چه مرحله ای می توانیم الگوریتم های ژنتیک را نوعی قتل عام در نظر بگیریم؟
وقتی ماشینها را بهعنوان موجوداتی در نظر بگیریم که میتوانند درک کنند، احساس کنند و عمل کنند، جهش بزرگی نیست که در مورد وضعیت قانونی آنها هم فکر کنیم.
آیا باید با آنها مانند حیواناتی با هوش مشابه رفتار کرد؟ آیا ما رنج ماشین های “احساس” را در نظر خواهیم گرفت؟
برخی از سؤالات اخلاقی در مورد کاهش رنج و برخی در مورد خطر پیامدهای منفی هستند.
در حالی که ما این خطرات را در نظر می گیریم، باید در نظر داشته باشیم که در کل، این پیشرفت تکنولوژیکی به معنای زندگی بهتر برای همه است.
هوش مصنوعی پتانسیل وسیعی دارد و اجرای مسئولانه آن به عهده ماست.
منبع:
https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/