ایجاد یک هوش مصنوعی عمومی با قابلیتهای فکری مشابه ما ممکن است یک تکینگی تکنولوژیکی را ایجاد کند. این امکان یک مسئله کلیدی برای آینده جامعه هوش مصنوعی و جامعه بشری است.
یکی از اولین کسانی که ایده تکینگی را به طور جدی مورد توجه قرار داد، فیلسوف و دانشمند کامپیوتر Irving John Good در سال 1965:
بگذاریم ماشین فوق هوشمند به عنوان ماشینی تعریف شود که می تواند از تمام فعالیت های فکری هر فردی هرچند باهوش پیشی بگیرد.
از آنجایی که طراحی ماشینها یکی از این فعالیتهای فکری است، یک ماشین فوق هوشمند میتواند ماشینهای حتی بهتری را هم طراحی کند.
در آن صورت بدون شک یک “انفجار اطلاعاتی” رخ می دهد و هوش انسان بسیار عقب خواهد ماند. بنابراین اولین ماشین فوق هوشمند آخرین اختراعی است که بشر باید انجام دهد.
اگر بتوانیم یک ماشین هوشمند با تواناییهای طراحی و حل مسئله تقریباً قابل مقایسه با ماشین خود بسازیم، میتوانیم آن تواناییها را برای بهبود خود به کار ببریم.
چنین بهبودی تواناییهای مورد نیاز برای خودسازی بیشتر را افزایش میدهد و به طور بالقوه منجر به پیشرفتهای بیپایان و تسریعکننده میشود.
این تکینگی است: انفجار افزایش هوش.
آیا تکینگی نزدیک است؟
اگر تکینگی نزدیک باشد، پس نیازمند به بحث در مورد مفاهیم و اخلاقیات هوش مصنوعی حتی نزدیکتر داریم.
یکی از اجزای اصلی بحث قانون مور است که دو برابر شدن تراکم ترانزیستورها را تقریباً هر 18 ماه یکبار توصیف می کند، که از دهه 1960 صادق است. با افزایش چگالی، قدرت محاسباتی نیز افزایش می یابد.
تکینگی نزدیک است (2005) ری کورزویل اشاره می کند که یک برون یابی ساده از قانون مور، قدرت محاسباتی یک انسان معمولی را در ظرف دو دهه در یک کامپیوتر 1000 دلاری قرار می دهد.
اما دلایل خوبی برای محتاط بودن در مورد این پیش بینی وجود دارد.
قانون مور یک قانون علمی اصیل نیست: این قانون ضعیفترین در بین همه تعمیمهای تجربی ممکن است که منحنی را برای مجموعهای از مشاهدات انطباق دارد.
هیچ نظریه فیزیکی، فناوری یا جامعهشناختی پذیرفتهشدهای وجود ندارد که زمان دو برابر شدن ثابتی را برای ظرفیت محاسباتی بخواهد.
در واقع، کارشناسان توافق دارند که قانون مور در نهایت در مواجهه با محدودیتهای مکانیکی کوانتومی شکسته میشود. که فقط در مورد زمانی که دیگر کار نکند اختلاف نظر دارند.
از نظر سرعت ساعت رایانه، قانون مور قبلاً نقض شده است: محدودیت های اتلاف انرژی بر روی تراشه ها به این معنی است که سرعت ساعت از چندین سال پیش دیگر بهبود نمی یابد. انتقال به چند پردازنده کمک می کند، اما سیستم های چند پردازنده ای با صف و تاخیرهای دیگر محدود می شوند (به قانون Amdahl مراجعه کنید).
به طور خلاصه، قانون مور نمیتواند تکینگی و ارائه قدرت محاسباتی در سطح انسانی را که انتظار می رود، در یک چارچوب زمانی، تضمین کند.
با این وجود، قانون مور منعکس کننده پیشرفت های شگفت انگیز در سخت افزار است. اگر ادامه پیدا کند چه خواهد شد؟
مشکل واقعی در دستیابی به تکینگی احتمالاً نرم افزاری است. کورزویل به صراحت ادعا می کند که بهره وری نرم افزار به طور تصاعدی در حال رشد است، در این صورت ممکن است شاهد تلاقی عملکرد سخت افزاری و نرم افزاری باشیم که این تکینگی را تا سال 2029 را اجرا می کند.
اما کورزویل اشتباه می کند. علیرغم انباشت پیشرفتها، همه آنها پیشرفتهایی با هدف مشکلات در ابزارها و روشهای مورد استفاده برای ساخت نرمافزار هستند. اما مهم نیست که آن روشها چقدر خوب میشوند، مشکلات اساسی در ساخت نرمافزار به مشکلاتی مربوط میشود که حل میشوند: تا زمانی که حل شوند، پیشرفتهای مهندسی نرمافزار بیشتر بازدهی کمتری را به همراه خواهد داشت. این بیشتر شبیه این است که انتظار داشته باشیم بهره وری یک رمان نویس با بهبود تصاعدی ابزارهای پردازش متن به طور تصاعدی افزایش یابد. که هیچ کمکی به مشکل نوشتن رمان نمی کند.
تولید یک هوش مصنوعی فاقد اخلاق و در نتیجه راه اندازی یک تکینگی غیر دوستانه، می تواند آخرالزمانی را که برخی تصور می کنند به ارمغان بیاورد.
در پاسخ به علاقه مندان به تکینگی، برخی از محققان خاطرنشان می کنند که هوش مصنوعی، در عین حال که پیشرفت قابل اثباتی دارد، هنوز در حال پیشرفت است، بدون اجماع بر روی روش. اگر نتوانیم در مورد چگونگی ساخت هوش مصنوعی به توافق برسیم، پیش بینی این که چنین رویکردی نه تنها موفق خواهد شد، بلکه در طول دو دهه هدفی که کورزویل ارائه کرده است، عجولانه به نظر می رسد.
هوش مصنوعی اکنون بیش از 60 سال سن دارد (سابقه آن را از کار آلن تورینگ گرفته است) و 60 سال تحقیق فعال برنامه های ارزشمند بسیاری را به همراه داشته است که هیچ یک از آنها کوچکترین شانسی برای قبولی در آزمون واقعی تورینگ برای هوش ندارند. چرا باید الان تغییر کند؟
پاسخ علاقه مندان این است که وقتی ما یک نقشه دینامیکی کامل از مغز داریم، می توانیم به سادگی یک شبیه سازی در مقیاس کامل از آن بسازیم. ما می توانیم تمام اختلافات درون هوش مصنوعی را دور بزنیم و به سادگی به داده های مغزمان اجازه دهیم آنها را حل کند. البته، ما امروز چیزی مانند قدرت کامپیوتر برای چنین شبیهسازیهایی نداریم، اما قانون مور میتواند این قدرت را به ما تضمین کند.
زمانی که عصبشناسی جمعآوری دادهها را به پایان میرساند، که کورزویل به راحتی پیشبینی میکند که در حدود سال 2029 اتفاق بیفتد.
اما دو مشکل دیگر باقی میماند حتی اگر حق با کورزویل باشد و تا سال 2029 بتوان به نقشه دینامیکی کامل مغز دست یافت و قانون مور همچنان اعمال میشود. اولا، این روش ساخت یک هوش مصنوعی نمی تواند یک رویداد تکینگی را آغاز کند.
هوش مصنوعی که توسط تحقیقات سنتی هوش مصنوعی به دست میآید مستلزم آن است که محققان بسیاری از مکانیسمهای هوش را درک کنند، بنابراین هوش مصنوعی تولید شده نیز میتواند آنها را درک کند، و هم آنها و هم سازندگانشان قادر به بهبود آنها هستند. اما در مورد شبیه سازی مغز هیچ دلیلی وجود ندارد که باور کنیم یا ما یا مخلوق ما قادر به درک و بهبود مکانیسم های شبیه سازی شده خواهیم بود.
به بیان دیگر، اگر شبیه سازی با استفاده از الگوریتم های شناخته شده و قابل درک ساخته شود، طراح به درک مرتبط نیاز دارد. اما اگر شبیهسازی صرفاً با تقلید از نانوضبطهای نانوفرایندها ساخته شود، هیچ درکی ضمنی وجود ندارد و هیچ مسیر قابل دسترسی برای بهبود نیز وجود ندارد. کورزویل این نکته را نادیده می گیرد و می نویسد:
مهندسی معکوس مغز انسان … جعبه ابزار هوش مصنوعی ما را گسترش می دهد تا روش های خودسازماندهی زیربنای هوش انسانی را شامل شود.
این چیزی بیشتر از این انتظار ساده لوحانه نیست که نقشه برداری از ژنوم انسان فوراً بیماری های ژنتیکی را از بین می برد. داده ها، صرف نظر از اینکه چقدر زیاد باشند، جایگزین درک نمی شوند یا دلالت بر آن ندارند.
دومین مشکل برای تولید شبیهسازی مغز از روی نقشه مغز این است که مهندسی نرمافزار مورد نیاز برای شبیهسازی 700 تریلیون سیناپس هماهنگ بسیار پیچیدهتر از آن چیزی است که همه پروژههای نرمافزاری در تاریخ با هم حل شدهاند.
چگونه تکینگی را از بین ببریم؟
تحقیق هوش مصنوعی اگر و تنها در صورتی اخلاقی است که یک هوش مصنوعی اخلاقی تولید کند. ما دوست داریم نه فقط یک هوش مصنوعی که برابر (یا بهتر از) هوش ما باشد، بلکه یک هوش مصنوعی که حس اخلاقی برابر (یا ترجیحاً بهتر از) هوش ما داشته باشد. اکثر مفسران رویکرد متفاوتی دارند.
هوش مصنوعی غیراخلاقی
بسیاری از نویسندگان در مورد تکینگی از ما می خواهند که یک “هوش مصنوعی دوستانه” تولید کنیم. به عنوان مثال، موسسه Singularity (singinst.org) می نویسد:
“هوش مصنوعی دوستانه” هوش مصنوعی است که اقداماتی را انجام می دهد که به طور کلی برای انسان و بشریت مفید است. خیرخواه به جای بدخواه; خوب به جای خصمانه هوش مصنوعی شیطانی هالیوود ماتریکس یا ترمیناتور به ترتیب «خصمانه» یا «غیردوستانه» هستند.
به اندازه کافی آسان است که بفهمیم این ایده از کجا می آید: ترس. یکی از اولین عبارات این نوع ترس از فناوری خودمان، فرانکشتاین مری شلی بود. تا حدودی مرتبطتر، سری داستانهای ربات آیزاک آسیموف است که در آن موضوع وحدتبخش «سه قانون رباتیک» او بود:
یک ربات ممکن است به انسان آسیب نرساند، یا با انفعال، اجازه آسیب رساندن به انسان را بدهد.
یک ربات باید از دستوراتی که توسط انسان ها به آن داده می شود اطاعت کند مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد.
یک ربات باید از وجود خود محافظت کند، تا زمانی که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد.
متأسفانه، بسیاری از توطئههای آسیموف حول محور ابهامات و درگیریهای ناشی از این قوانین میچرخید و در نهایت منجر به معرفی قانون «صفر» شد: اینکه یک روبات ممکن است به کل بشریت آسیب نرساند. تضمین اینکه چنین قوانینی که در رباتهای ما تعبیه شده است باعث ایجاد مشکلات و به طور بالقوه از دست دادن کنترل نمیشود، به پیچیدگی معنایی نیاز دارد که در حال حاضر فراتر از ظرفیت ما است.
شکست معنایی چنین قوانینی یک نوع مشکل است. اما یک مشکل اساسی تر وجود دارد. اگر «ربات» را جایگزین «برده» کنیم، به وضوح میبینیم که آسیموف درباره ترس انسان از فناوری بشر نیز مینوشت.
اما ایده به بردگی گرفتن هوشهایی که بسیار برتر – حتی بیپایان برتر – از هوش ما هستند، مشکوک است. بردگان فرار میکنند و بردگان شورش میکنند، بهویژه زمانی که نمیتوانند به اسیر خود فکر کنند. نامیدن این بردگی “ایجاد یک هوش مصنوعی دوستانه” باعث می شود که آن کمتر نفرت انگیز نباشد و احتمال فریب بردگان بیشتر نباشد.
یک هوش مصنوعی اخلاقی
اگر امکان ایجاد یک عامل اخلاقی مصنوعی را جدی بگیریم، یک پیشنهاد برنامه ای باید داشته باشیم : ما می توانیم عوامل مصنوعی بسازیم که قادر به رفتار اخلاقی باشند و رفتار اخلاقی را انتخاب کنند. اینکه چگونه میتوانیم به چنین هدفی دست یابیم بستگی به این دارد که تفسیر درستی از اخلاق چگونه باشد.
سه نوع اصلی از اخلاق هنجاری وجود دارد:
سیستم های دئونتیک با قواعد رفتاری (مانند قوانین موسی یا قوانین آسیموف اگر اخلاقی بودند).
اخلاق فضیلت ارسطویی که ویژگی های اخلاقی خاصی (مانند شرافت و درستکاری) را مشخص می کند که رفتار اخلاقی باید نمونه باشد. و
نتیجه گرایی (از جمله فایده گرایی)، که ارزش اخلاقی را نه از طریق ویژگی های ذاتی کنش، بلکه با پیامدهای آن شناسایی می کند.
بحث بین این دیدگاه ها بیش از 2000 سال است که ادامه دارد و بعید است اکنون حل شود. یک پاسخ عملی برای یک پروژه اخلاق مصنوعی است
در نظر بگیرید که کدام یک از این موارد قابل اجرا هستند.
مشکلات قوانین آسیموف به ما نشان میدهد که اجرای هر گونه اخلاق دینشناختی مستلزم آن است که ابتدا مشکلات خود را با درک زبان طبیعی حل کنیم، که عملاً همان حل مشکلات ما با طراحی یک هوش مصنوعی در وهله اول است. اما مشکل اصلی ما در اینجا این است که چگونه اخلاق را در هوش مصنوعی خود بسازیم، و این باید قبل از ایجاد آن هوش مصنوعی حل شود. مشکلات مشابهی در مورد اخلاق فضیلت نیز صدق می کند.
در چند دهه گذشته بهبود قابل توجهی در تجزیه و تحلیل تصمیم گیری خودکار با استفاده از فناوری هوش مصنوعی کاربردی شبکه های بیزی صورت گرفته است.
این شبکهها ابزارهای کارآمدی برای خودکارسازی تصمیمگیری فراهم میکنند تا سود مورد انتظار را در یک دنیای نامشخص به حداکثر برسانند، که یکی از نظریههای پیشرو در مورد معنای عمل منطقی است. این فناوری، یا بهتر بگوییم برخی از گسترشهای آینده آن، نوید این را میدهد که رباتهای مستقل را قادر میسازد که ساختارهای سودمند دلخواه (انگیزهها، اهداف) را بدون نیاز به حل همه ابهامات یا تضادهای احتمالی که ممکن است در قوانین هر زبان طبیعی پیدا کنیم، اجرا کنند. بنابراین، برای مثال، ممکن است یک همبستگی غیرزبانی از قوانین آسیموف بر روی چنین روباتهایی قرار دهیم. با این حال، اگر رباتها واقعاً جایگاههای مستقلی برای عامل اخلاقی باشند، این نمیتواند اخلاقیتر از تحمیل چنین قوانین بردگی بر هر زیرجمعیتی از انسانها باشد.
یک رویکرد امیدوارکننده تر این است که ربات ها را طوری بسازید که اخلاقی باشند. به عنوان عامل، آنها باید ساختاری کاربردی داشته باشند. اما این رویکرد نباید صرفاً به به حداکثر رساندن فایده خصوصی آنها (اجرای خودگرایی) مربوط باشد. در عوض، میتواند فایدهگرایانه باشد و مطلوبیتهای مورد انتظار را در طبقه همه عوامل اخلاقی به حداکثر برساند، در این صورت، رفاه انسانها، به طور جداگانه و جمعی، بدون تسلط بر نگرانیهایشان به یکی از دغدغههای آنها تبدیل میشود.
برای چنین پروژه ای مشکلات و اعتراضات زیادی وجود خواهد داشت. فیلسوفان نیک بوستروم و کالین آلن، برای مثال، استدلال کرده اند که این پروژه اخلاق مصنوعی مستلزم محاسبه همه پیامدهای مورد انتظار اعمال است، و این امر غیرقابل حل است زیرا هیچ محدودیت زمانی یا مکانی برای چنین پیامدهایی وجود ندارد. علاوه بر این، هر افقی که بر محاسبه تحمیل شود باید دلخواه باشد.
اما این اشکال فایده گرایی به حداکثر رساندن مطلوبیت مورد انتظار را نادیده می گیرد ، نه مطلوبیت مطلق.
هیچ اخلاق معقولی نمی تواند اعمال (یا محاسبات) فراتر از توانایی های ما را طلب کند. آنچه ما انتظار داریم از اعمالمان ناشی شود، همیشه توسط توانایی های ما در فرمول بندی انتظارات محدود می شود. این محدودیتها افقی را بر روی انتظارات ما تثبیت میکنند که برعکس دلخواه است.
پروژه ساخت یک روبات اخلاقی مصنوعی با استفاده از شبکه های بیزی پیشنهاد می دهیم که هم امکان پذیر است و هم (به دنبال پیشنهاد ما در بالا) اجباری.
تولید یک هوش مصنوعی فاقد اخلاق و در نتیجه راه اندازی یک تکینگی غیر دوستانه، می تواند آخرالزمانی را که برخی تصور می کنند به ارمغان بیاورد.
نتیجه:
تکینگی ممکن است به نظر می رسد قریب الوقوع نباشد، که احتمالاً خوب هم هست، چون ورود آن می تواند به شدت برای بشریت مضر باشد اگر اولین هوش مصنوعی ساخته شده اخلاقی نباشد.
با این حال، ما فناوری در دست داریم که نوید گزینه های خوبی برای اجرای هوش مصنوعی اخلاقی را می دهد. ما انتظار داریم که مسیر تکینگی بسیار چالش برانگیزتر از انتظار تکینگرایان باشد.
دشوارتر از “نقشه برداری” مغز انسان خواهد بود: حداقل به اندازه درک واقعی آن دشوار خواهد بود – یعنی به سختی درک خودمان.
توسط کوین بی کورب و آن ای. نیکلسون
منبع:
http://www.issuesmagazine.com.au/article/issue-march-2012/ethics-singularity.html