explainable ai
Radio BIDAR.ca
Radio BIDAR.ca
پادکست 43: هوش مصنوعی توضیح پذیر با دکتر علیرضا اکبر زاده
/

توسط گروهی از متخصصان صنعت نرم افزار در رادیو بیدار کانادا: طلیعه دوانی، هومن علاوه زاده، مهدی شکوهی، محمد نادی و مهدیس خالدی

 

اخلاق و هوش مصنوعی با دکتر علیرضا اکبر زاده

سو گیری در هوش مصنوعی

آیا هوش مصنوعی تهدیدی برای انسان به حساب می آید

2- آیا هوش مصنوعی تهدیدی برای شغل ها به حساب می آید ؟

3- آیا هوش مصنوعی قابل قضاوت هستند یا نه؟

آیا مساله روان هم هوش مصنوعی وجود دارد؟

اگر بتوانیم روان را به صورت کوانتیفای کنیم و فیزیکی کنیم می توانیم با هوش مصنوعی پیاده سازی کنیم ولی مساله روان را نمیتوان پیاده سازی کرد

سیستم های هوش مصنوعی بر اساس دیتا کار می کنند

و دیتا هایی که بر اساس سوگیری آورده می شوند خروجی نیز سو گیری شده می شود

دو نوع سوگیری داریم: statisical bias و cognitive bias

داده ها را به دو قسمت tarin set و test set تقسیم می کنیم

prepecual bias

در آمازون این سو گیری ها انجام شده بود

دلیل اصلی بایاس، در زمینه سلامت این است که دیتا ها به اندازه کافی موجود نیست

روش های کلی برای جلوگیری از بایاس:

– بر اساس پارامتر های خاص red flag هایی را بگذاریم مثلا برای نژاد، رنگ پوست ، جنسیت

و همچنین دیتا را Diversify کنیم

برای انسان 180 نوع cognitive bias دسته بندی و تشخیص داده شده

AI fairness IBM روی دیتا های

IBM watson open scal

Google What is tools

سوال: ما با این ایرادات نرم افزار روبرو هستیم در quality checking زمانی که پروژه تعریف میشه تمرکزشون روی صورت مساله است

داده هایی که وارد می شود ، برای ورود اطلاعات غیر عادی چطور می توان جلوی آنها را گرفت؟

explainable-ai

برای سیستم های ساده تر می توان نتیجه گیری را توضیح پذیر کرد

تک تک ماژول ها و نود ها را می توان کنترل کرد

مشابه Open source software

برای سیستم های ساده انسان بتواند توضیح بدهد

دیتا را جمع آوری می کنند

الگوریتم ها را طراحی کنند

اگر بپرسیم چجوری سیستم به این نتیجه رسید؟

شفافیت در تصمیم سازی سیستم

ما سیستم شفاف را در خطا ها بهتر کنیم

اعتماد ایجاد می کنیم

complience محصول AI باید مطابق اون قوانین باشد

اگر سیستم explanable باشد پارامتر های مهم و کم اهمیت را می توان تشخیص داد وtune کرد

سیستم deep neural network ها پیچیده هستند

اگر در سلامت سیستم هوش مصنوعی می توان ساده و یا پیچیده گرفت

1- الگوریتم هایی طراحی شود که آنالیز پارامتر ها قابل تشخیص باشد

2- دیتا ها باید تمیز باشند

سیستم های خطی توضیح دادن آنها خیلی ساده است

می توانیم dataset ها را به چند subdata set تقسیم کنیم

روی سیستم های Deep learning می توان back propagation را تعریف کرد

یک سری ستون دارد

پکیج Lime: Local Interpretable Model-Agnostic Explanations

پکیج shap

برای deep learning سیستم deep lift هست

می توان نقش های هوش مصنوعی را مانند افراد جامعه تقسیم بندی کرد مثل AI پزشک، AI ناظر، AI پلیس و AI قاضی

هک شدن دیتا های ورودی هوش مصنوعی

adverserial attack

یک گروه طرفدار محیط زیست درباره گرد محیط زیست

به سایت های هواشناسی وارد شدند و موفق شده بودند که دماسنج ها را بالاببرند

api testing

open api

دمای یک شهر را می خوانید

باید در یک رنج خاصی در شهر خاصی باشد

anomaly detection –

منطق فازی

تمام شاکله هوش مصنوعی بر اساس دیتا هست

یک هایپ در جامعه هست که همه چیز را به AI بچسبانند

Explainability and Auditability in ML: Definitions, Techniques, and Tools

https://research.aimultiple.com/ai-bias/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *