ai-harmful-bios

امروزه، فناوری‌های هوش مصنوعی و یادگیری ماشینی بر برخی از تصمیم‌های ما تأثیر می‌گذارند و حتی برخی از آنها را می‌گیرند، که از آن‌ها نشان می‌دهد که به چه کسی آزادی مشروط داده می‌شود. در حالی که این موارد کاربرد پیچیده‌ای هستند، اما نشان‌دهنده اوج انقلاب آینده هستند، با نوآوری‌های علم داده که نوید تغییر نحوه تشخیص بیماری، مبارزه با تغییرات آب‌وهوایی و حل سایر چالش‌های اجتماعی را می‌دهد. با این حال، از آنجایی که برنامه‌های کاربردی در حوزه‌های حساسی مانند امور مالی و مراقبت‌های بهداشتی مستقر می‌شوند، کارشناسان و طرفداران هشدار در مورد ظرفیت سیستم‌های هوش مصنوعی برای تصمیم‌گیری بی‌طرفانه یا به‌طور سیستماتیک برای گروه‌های خاصی از مردم ناعادلانه هستند. هوش مصنوعی مغرضانه بدون توجه می‌تواند تعصبات مضر انسانی را تداوم بخشد و حتی آن را تقویت کند.

سازمان‌ها احتمالاً مدل‌های AI/ML را برای تقویت عمدی نابرابری‌ها طراحی نمی‌کنند. با این حال، سوگیری همچنان به اشکال مختلف در الگوریتم‌ها نفوذ می‌کند، حتی زمانی که متغیرهای حساسی مانند جنسیت، قومیت یا هویت جنسی را حذف می‌کند. مشکل اغلب در داده های مورد استفاده برای آموزش مدل ها نهفته است که منعکس کننده نابرابری های منبع آن است: دنیای اطراف ما. ما قبلاً اثرات الگوریتم‌های استخدامی را می‌بینیم که به نفع مردان است و مدل‌های کد مولد که کلیشه‌ها را منتشر می‌کنند. خوشبختانه، مدیران می‌دانند که باید اقدام کنند، با نظرسنجی اخیر که نشان می‌دهد بیش از ۵۰ درصد از مدیران نگرانی‌های «عمده» یا «افراطی» در مورد خطرات اخلاقی و اعتباری ناشی از استفاده سازمانشان از هوش مصنوعی را گزارش می‌دهند.

اینکه چگونه سازمان ها باید برای حذف سوگیری های غیرعمدی اقدام کنند، چندان روشن نیست. در حالی که بحث در مورد سیستم‌های هوش مصنوعی اخلاقی اکنون سرفصل‌ها و بررسی‌های نظارتی را به خود اختصاص داده است، بحث کمی در مورد اینکه چگونه می‌توانیم پزشکان را برای مقابله با مسائل ناعادلانه آماده کنیم وجود دارد. در زمینه‌ای که تا همین اواخر، تمرکز بر روی افزایش محدودیت‌های ممکن بود، تعصب در مدل‌ها تنها تقصیر توسعه‌دهندگان نیست. حتی دانشمندان داده با بهترین نیت اگر ابزار، پشتیبانی و منابع مورد نیاز برای کاهش آسیب را نداشته باشند، با مشکل مواجه خواهند شد.

در حالی که منابع بیشتری در مورد هوش مصنوعی مسئول و منصفانه در سال های اخیر در دسترس قرار گرفته است، پیمایش در این پویایی ها بیش از بحث های میزگرد و دوره های یکباره نیاز دارد. ما به یک رویکرد کل نگر برای آموزش در مورد سوگیری در هوش مصنوعی نیاز داریم، رویکردی که همه از دانش‌آموزان گرفته تا رهبری اجرایی سازمان‌های پیشرو را درگیر کند.

کمتر از یک چهارم مربیان گزارش می دهند که در کلاس های خود آموزش های اخلاقی هوش مصنوعی ارائه می دهند (اولیویه لو موآل / شاتر استوک)

در اینجا یک آموزش عمدی، مستمر و حرفه ای در مورد هوش مصنوعی اخلاقی می تواند به نظر برسد:

در مدرسه: آموزش رهبران فردا، امروز
بهترین راه برای آماده‌سازی رهبران آینده برای پرداختن به پیامدهای اجتماعی و اخلاقی محصولاتشان، گنجاندن دستورالعمل‌هایی درباره سوگیری و برابری در آموزش رسمی‌شان است. در حالی که این امر کلیدی است، هنوز در اکثر برنامه ها نادر است. در نظرسنجی Anaconda’s State of Data Science در سال 2021، هنگامی که در مورد موضوعاتی که به دانش‌آموزان علوم داده/ML آموزش داده می‌شود، تنها 17% و 22% از مربیان پاسخ دادند که به ترتیب در مورد اخلاق یا سوگیری تدریس می‌کنند.

دانشگاه ها باید به دنبال زمینه های حرفه ای تثبیت شده برای راهنمایی باشند. اخلاق پزشکی را در نظر بگیرید که موضوعات مشابه را در تقاطع نوآوری و اخلاق بررسی می کند. به دنبال آئین نامه اخلاق پزشکی که توسط انجمن پزشکی آمریکا در سال 1847 به تصویب رسید، این مطالعه به یک حوزه فرعی مجزا تبدیل شد و اصول راهنمای آن اکنون برای کسانی که به دنبال اعتبار حرفه ای به عنوان پزشک و پرستار هستند، نیاز به یادگیری دارد. مؤسسات آموزشی بیشتری باید از دانشگاه آکسفورد در ایجاد مراکز اختصاصی که در زمینه‌های متعدد، مانند فلسفه، برای هدایت آموزش در مورد انصاف و بی‌طرفی در هوش مصنوعی استفاده می‌کنند، پیروی کنند.

همه موافق نیستند که کلاس‌های مستقل اخلاق هوش مصنوعی، که اغلب به وضعیت انتخابی تنزل داده می‌شوند، مؤثر خواهند بود. رویکرد جایگزینی که توسط دانشگاهیان پیشنهاد شده و اخیراً توسط هاروارد پذیرفته شده است، «قرار دادن» اخلاق در آموزش فنی با ایجاد لحظات معمول برای ایجاد مهارت‌های اخلاقی و تفکر در طول فعالیت‌های عادی است. و سپس بسیاری از دانشمندان مشتاق داده وجود دارند که مسیر سنتی دانشگاه را دنبال نمی کنند. حداقل برنامه‌های کوتاه حرفه‌ای باید از دوره‌های آنلاین رایگان موجود در دانشگاه میشیگان و سایرین استفاده کنند. همانطور که آزمایشگاه رسانه MIT با پروژه برنامه درسی AI + Ethics برای مدرسه راهنمایی توصیه می کند، حتی موردی برای معرفی موضوع حتی زودتر وجود دارد.

در محل کار: ارتقاء مهارت در اخلاق
آموزش رسمی در مورد سوگیری در AI/ML تنها اولین گام به سوی توسعه حرفه ای واقعی در زمینه پویایی مانند علم داده است. با این حال، نظرسنجی Anaconda’s State of Data Science در سال 2021 نشان داد که 60 درصد از سازمان‌های علم داده یا هنوز هیچ برنامه‌ای برای اطمینان از انصاف و کاهش تعصب در مجموعه‌ها و مدل‌های داده اجرا نکرده‌اند، یا نتوانسته‌اند این برنامه‌ها را به کارکنان ابلاغ کنند. به طور مشابه، یک نظرسنجی اخیر از مدیران IT توسط ZDNet نشان داد که 58٪ از سازمان ها هیچ آموزش اخلاقی به کارکنان خود ارائه نمی دهند.

مدیران اجرایی نگران تاثیر هوش مصنوعی بر شهرت شرکت هایشان (FGC/Shutterstock)

پاسخ فقط این نیست که تیم‌های هوش مصنوعی را مجبور به آموزش اصول اخلاقی بشمارند. یک برنامه آموزشی باید جزئی از تلاش های کل سازمان برای افزایش آگاهی و اقدام در جهت کاهش سوگیری مضر باشد. پیشرفته ترین شرکت ها اخلاق هوش مصنوعی و مسئولیت پذیری را اولویت های اتاق هیئت مدیره قرار می دهند، اما اولین قدم خوب، تنظیم استانداردهای اخلاق داخلی و اجرای ارزیابی های دوره ای برای اطمینان از برقراری آخرین شیوه ها است. به عنوان مثال، تیم ها باید گرد هم آیند تا تعریف کنند که اصطلاحاتی مانند سوگیری و توضیح پذیری در زمینه عملیات خود به چه معناست. برای برخی از پزشکان، سوگیری می‌تواند به الگوها و روابطی اشاره داشته باشد که سیستم‌های ML به دنبال شناسایی آن هستند، در حالی که برای برخی دیگر، این اصطلاح یک بار معنایی منفی دارد.

با وجود استانداردها، آموزش می تواند دستورالعمل ها را عملیاتی کند. هاروارد بیزینس ریویو توصیه می کند که فراتر از افزایش آگاهی ساده رفته و به جای آن به کارکنان در سراسر سازمان قدرت دهید تا سؤالات خود را بپرسند و نگرانی ها را به طور مناسب افزایش دهند. برای تیم های فنی و مهندسی، شرکت ها باید آماده سرمایه گذاری در ابزارهای تجاری جدید یا پوشش هزینه های آموزش تخصصی شخص ثالث باشند. با توجه به اینکه دو سوم شرکت‌هایی که در مطالعه اخیر FICO شرکت کردند، نمی‌توانند توضیح دهند که چگونه راه‌حل‌های هوش مصنوعی پیش‌بینی‌های خود را انجام می‌دهند، توسعه‌دهندگان و مهندسان به چیزی بیش از کارگاه‌های ساده یا دوره‌های گواهی نیاز خواهند داشت.

آموزش اخلاق هوش مصنوعی نیز باید سنگ بنای استراتژی استخدام بلندمدت شما باشد. اول، ارائه آموزش های اخلاقی، استعدادهای جوان و ارزش محور را جذب می کند. اما ابتکارات رسمی برای پرورش این مهارت‌ها، یک حلقه بازخورد مثبت نیز ایجاد می‌کند، که در آن شرکت‌ها از برنامه‌های آموزشی خود برای نشان دادن مهارت‌هایی که کارفرمایان به دنبال آن هستند به دانشگاه‌ها استفاده می‌کنند و این مؤسسات را به گسترش پیشنهادات خود سوق می‌دهند. با ارائه آموزش در مورد این موضوعات امروز، رهبران می توانند به ایجاد نیروی کاری آماده و قادر به رویارویی با مسائلی که فقط پیچیده تر می شوند کمک کنند.

گفتگوها در مورد اخلاق هوش مصنوعی در چند سال گذشته محل بحث ثابتی بوده است و اگرچه ممکن است نادیده گرفتن این مکالمات آسان باشد، بسیار مهم است که اجازه ندهیم اخلاق هوش مصنوعی تبدیل به یک کلمه کلیدی دیگر شود. با قوانین به روز شده اتحادیه اروپا و مقررات عمومی حفاظت از داده ها (GDPR)، مکالمات و مقررات در مورد استفاده از هوش مصنوعی اینجا باقی می مانند. در حالی که کاهش سوگیری مضر یک فرآیند تکراری خواهد بود، متخصصان و سازمان‌ها باید در ارزیابی مدل‌های خود و پیوستن به مکالمات پیرامون اخلاق هوش مصنوعی هوشیار باشند.

درباره نویسنده: کوین گلداسمیت به عنوان مدیر ارشد فناوری Anaconda، Inc.، ارائه‌دهنده محبوب‌ترین پلتفرم علم داده در جهان با بیش از 25 میلیون کاربر، خدمت می‌کند. در نقش خود، او بیش از 29 سال تجربه در توسعه نرم افزار و مدیریت مهندسی را برای تیم به ارمغان می آورد، جایی که او بر نوآوری برای پیشنهادات منبع باز و تجاری فعلی Anaconda نظارت می کند. گلداسمیت همچنین برای ایجاد راه حل های جدید برای گردهم آوردن متخصصان علم داده با مبتکران، فروشندگان و رهبران فکری در صنعت کار می کند.

قبل از پیوستن به آناکوندا، او به عنوان CTO شرکت مدیریت هویت مبتنی بر هوش مصنوعی Onfido خدمت می کرد. نقش های دیگر شامل CTO در Avvo، معاون مهندسی، مصرف کننده در Spotify و نه سال در Adobe Systems به عنوان مدیر مهندسی بوده است. او همچنین نقش مهندسی نرم افزار در مایکروسافت و IBM را بر عهده داشته است.

منبع:

Fighting Harmful Bias in AI/ML with a Lifelong Approach to Ethics Training

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.