canada-ai-ethics

کانادا هوش مصنوعی دولت را در زمینه اخلاق و همکاری جهانی رهبری می کند

همانطور که هوش مصنوعی (AI) و یادگیری ماشینی به آرامی راه خود را به زندگی روزمره ما وارد می کنند، ترس از اعمال تبعیض آمیز و نقص فنی در حال تبدیل شدن به واقعیت است.

اجماع اندک جهانی در مورد ظاهر هوش مصنوعی مسئول و سرفصل هایی که تبعیض ناشی از فرآیندهای الگوریتمی را مستند می کنند، برخی از ابتکارات هوش مصنوعی بخش عمومی را در هاله ای از ابهام قرار داده است.

با این حال، در سال‌های اخیر، دولت‌ها در سراسر جهان به آرامی هوش مصنوعی و یادگیری ماشین را در فرآیندهای مدیریت داده و اتوماسیون برای بهبود خدمات باطنی و عمومی وارد کرده‌اند.

به عنوان مثال، در ایالات متحده، اداره امور کهنه سربازان (VA) از هوش مصنوعی در برنامه REACH VET خود استفاده می کند تا جانبازانی را که در معرض خطر بالای خودکشی هستند مشخص کند.

آخرین به روز رسانی برنامه استراتژیک تحقیق و توسعه هوش مصنوعی ملی کاخ سفید که در اوایل سال جاری منتشر شد، شامل اضافه شدن مشارکت های دولتی-خصوصی به عنوان یک منطقه تمرکز جدید برای کمک به تسریع ابتکارات هوش مصنوعی فدرال است.

از سوی دیگر، کانادا به عنوان یک رهبر جهانی در مقررات هوش مصنوعی شناخته شده است چون نگرانی های پیرامون هوش مصنوعی مانند تعصب و مسئولیت پذیری را بررسی می کند.

با توجه به سرمایه گذاری های طولانی مدت و در مقیاس بزرگ این کشور در هوش مصنوعی، مزیت کانادا جای تعجب ندارد.

الیسا استروم، مدیر اجرایی استراتژی هوش مصنوعی پان-کانادایی در موسسه تحقیقات پیشرفته کانادا (CIFAR)، توضیح داد که رهبری هوش مصنوعی کانادا در پرسنل آینده نگر آن نهفته است.

استروم گفت: «ما سابقه طولانی مدتی داریم که برخی از محققان برجسته جهان را در زمینه هوش مصنوعی در کانادا داریم.

“استعداد بزرگترین دارایی ما در کانادا است، بنابراین ما استراتژی خود را حول حفظ آن استعداد و ایجاد استعدادها ساخته ایم.”

داده ها این ادعا را تایید می کند. طبق گزارش آژانس جهانی جذب و ترویج سرمایه گذاری کانادا، Invest in Canada، از سال 2016 تا 2017، کانادا 1.3 میلیارد دلار برای تحقیق و توسعه هوش مصنوعی سرمایه گذاری کرده است.

تورنتو دارای بیشترین تمرکز استارت آپ های هوش مصنوعی و مونترال دارای بالاترین تمرکز دانشجویان و محققانی است که هوش مصنوعی را در جهان مطالعه می کنند.

استعداد و پول پشتیبان هوش مصنوعی کانادایی چشمگیر است، اما تعهد این کشور به استفاده اخلاقی از هوش مصنوعی و تصمیم گیری خودکار در بخش عمومی است که آن را متمایز می کند.

گام های پیشگامانه در هوش مصنوعی کانادا

در حالی که تبعیض هوش مصنوعی چیز جدیدی نیست، گزارش ماه آوریل توسط محققان موسسه AI Now در دانشگاه نیویورک پس از ابراز نگرانی در مورد سوگیری ساختاری احتمالی، دوباره بحث را برانگیخت.

بر اساس تجزیه و تحلیل AI Now، نیروی کار سفیدپوست مرد در صنعت هوش مصنوعی در حال ورود به قابلیت های الگوریتمی است.

نظرسنجی موسسه AI Now از بیش از 150 مطالعه و گزارش در مورد هوش مصنوعی نشان داد که سوگیری در سیستم‌های هوش مصنوعی فعلی منعکس کننده الگوهای تاریخی تبعیض است و در نهایت خواستار ارزیابی مجدد سیاست‌های هوش مصنوعی و محل کار شد.

برای مثال، در سال 2016، یک ارزیاب خودکار عکس پاسپورت در نیوزیلند به مردی آسیایی تبار گفت که چشمانش بسته است، حتی اگر به وضوح باز باشد.

دو سال بعد، آمازون سیستم استخدام یادگیری ماشینی را که پس از شناخت الگوهای تسلط مردان در صنعت فناوری به مردان علاقه مند بود، کنار گذاشت.

به عبارت دیگر، داده‌هایی که سیستم‌های خودکار مبتنی بر آن هستند، همیشه تنوع کاربران را در بر نمی‌گیرد.

اما کانادا سخت کار می کند تا استانداردهای اخلاقی هوش مصنوعی را حفظ کند.

این دستورالعمل یک دستورالعمل در حال تحول درباره تصمیم‌گیری خودکار منتشر کرد که دولت را وادار می‌کند در عین حفظ شفافیت، پاسخگویی، قانونی بودن و انصاف رویه‌ای، به استفاده از هوش مصنوعی متعهد شود.

ناتالی مک گی، مدیر اجرایی برنامه ریزی استراتژیک سازمانی برای دبیرخانه هیئت خزانه داری کانادا، توضیح داد که چگونه دولت کانادا در تلاش است تا نگرانی های هوش مصنوعی در بخش عمومی را برطرف کند.

مک گی گفت: «دولت می‌داند که قبل از استفاده از فناوری [AI]، ما واقعاً نیاز داریم که به سوگیری و الزامات استفاده مسئولانه نه تنها برای شفافیت، بلکه برای پاسخگویی در استفاده از اتوماسیون رسیدگی کنیم.»

به همین دلیل است که دولت کانادا و شرکت‌های تحقیقاتی قبلاً گام‌هایی را برای اجرای ابتکارات هوش مصنوعی اخلاقی و مسئولانه از نظر نیروی کار و فنی برداشته‌اند.

استراتژی هوش مصنوعی پان-کانادایی، که نشان دهنده اولین استراتژی ملی هوش مصنوعی است که توسط هر کشوری توسعه یافته است، یک ابتکار تحقیق و نوآوری برای تقویت کانادا به عنوان یک مرکز تحقیقاتی هوش مصنوعی است. هدف این استراتژی همچنین متحد کردن رهبران فکری برای بررسی پیامدهای اجتماعی هوش مصنوعی قبل از اجراست.

به عنوان بخشی از این استراتژی، CIFAR برنامه های آموزشی را برای دانشجویان کالج اجرا می کند که برابری، تنوع و شمول را ترویج می کند.

برای مثال، AI for Good Summer Lab، فرهنگ‌های فناوری فراگیر را با توانمندسازی زنان ترویج می‌کند.

برنامه دیگری به نام Data Science for Social Good، با سازمان های عمومی برای استخراج بینش بر اساس مجموعه داده های آنها را به اشتراک می گذارد.

پروژه های 2019 شامل استفاده از یادگیری ماشینی برای طبقه بندی نتایج آزمایش های آزمایشگاهی است که توسط مرکز کنترل بیماری BC حمایت می شود.

مک گی توضیح داد که دولت در حال حاضر به قوانین موجود، مانند منشور حقوق و آزادی های کانادا، برای اجرای سیاست هایی که از شهروندان در برابر هوش مصنوعی و تبعیض تصمیم گیری خودکار محافظت می کند، تکیه می کند.

این فرآیند شامل حصول اطمینان از این است که تصمیمات بر اساس داده‌های با کیفیت بالا و بی‌طرفانه است، ارزیابی تأثیر تصمیم‌گیری‌شده و برای شهروندان در صورت اشتباه بودن فناوری پذیرش می کند.

به عنوان مثال، دولت یک ارزیابی تاثیر الگوریتم را برای امتیاز دهی به سطوح بالقوه ریسک اجرا کرد.

هدف از این کار، ارائه گام‌های عملی به آژانس‌هایی است که می‌خواهند هوش مصنوعی را پیاده‌سازی کنند تا پیش از وقوع ناهماهنگی‌ها را اصلاح کنند.

مدیران پروژه یا کاربران نهایی به 60 تا 80 سوال پاسخ می‌دهند تا مشخص کنند فناوری‌ای که می‌خواهند پیاده‌سازی کنند کم خطر است یا پر خطر.

این نتایج به سیاست های کانادا در مورد چگونگی پیشبرد پروژه گره خورده است.

مک گی گفت: «از طریق خط مشی اداری موجود، ما معنای واقعی گنجاندن استفاده مسئولانه و اخلاقی در تصمیم گیری خودکار را معرفی کرده ایم.

به گفته مک گی، کانادا به جای تلاش برای حل هر مشکلی از ابتدا، توانست با تکیه بر استانداردهای دیجیتالی کشور و مقابله با اولین مشکل، یعنی خودکارسازی، اولین استراتژی ملی جهان را در استفاده مسئولانه و اخلاقی از هوش مصنوعی معرفی کند.

از دیدگاه تحقیقاتی در CIFAR، حل اختلافات تعصب و تبعیض پیرامون هوش مصنوعی مستلزم بازنگری در خود فناوری و اجرای آن است.

استروم گفت: «مسئله‌های مربوط به برابری، تنوع و شمول حوزه‌ای است که ما باید در حال حاضر بیشترین توجه را به آن داشته باشیم، چه ما در مورد برابری، تنوع و گنجاندن در جمعیت افرادی صحبت می‌کنیم که به این امر کمک می‌کنند. توسعه این فناوری یا ما در مورد حصول اطمینان از این موضوع صحبت می کنیم که استفاده از فناوری هوش مصنوعی از برابری، تنوع و شمول حمایت و پیشرفت می کند.

برای رفع این نگرانی‌ها، تیم CIFAR ارتباط با زنان و سایر گروه‌هایی که در بخش فناوری حضور کمتری دارند، در اولویت قرار داده است.

این تیم به فراسوی مرزهای ملی می‌رود تا نیروهای جدید پیدا کند و با درگیر کردن کارمندان با استعداد از پیشینه‌های مختلف، احتمال تعصب و تبعیض در محصول نهایی را کاهش دهد.

در مقایسه با  ایالات متحده چطور؟

از سال 2016، زمانی که برنامه استراتژیک اولیه هوش مصنوعی تحت ریاست جمهوری باراک اوباما منتشر شد، اجرای فدرال هوش مصنوعی رشد کرده و تغییر کرده است.

ابتکار هوش مصنوعی آمریکایی قابل توجه ترین تعدیل دولت ترامپ برای اجرا بود که شامل سرمایه گذاری در تحقیق و توسعه، تنظیم استانداردهای حاکمیتی و ایجاد نیروی کار برای یک شرکت هوش مصنوعی بود.

این قدم ها نسبتا کند بوده است. در حالی که موسسه ملی استانداردها و فناوری (NIST) هنوز در حال توسعه طرحی برای استفاده فدرال است که شامل استانداردهای فنی برای هوش مصنوعی می‌شود، آژانس‌ها پیاده‌سازی رویکردهای خود را آغاز کرده‌اند – و موفقیت‌های چشمگیری را شاهد بوده‌اند.

مؤسسه ملی بهداشت (NIH) در حال یافتن راه های جدیدی برای استفاده از هوش مصنوعی در تحقیقات زیست پزشکی است.

محققان NIH از هوش مصنوعی برای تشخیص ضربان قلب نامنظم استفاده کرده اند که به توانایی آن در بهبود خوانش نوار قلب (EKG) اشاره دارد.

وزارت دفاع (DoD) نه تنها یک مرکز اطلاعاتی اختصاص داده شده به هوش مصنوعی ایجاد کرده است، بلکه یک استراتژی برای مشارکت با سازمان های بخش خصوصی برای گنجاندن هوش مصنوعی در ماموریت های کلیدی منتشر کرده است.

دانا دیزی، مدیر ارشد اجرایی وزارت دفاع آمریکا در هنگام انتشار استراتژی آژانس خود خاطرنشان کرد که همکاری برای اجرای موفقیت‌آمیز استراتژی هوش مصنوعی وزارت دفاع مهم است.

او گفت: “موفقیت ابتکارات هوش مصنوعی ما بر روابط قوی با شرکای داخلی و خارجی متکی خواهد بود.” بین سازمانی، صنعت، متحدان ما و جامعه دانشگاهی همگی نقشی حیاتی در اجرای استراتژی هوش مصنوعی ما خواهند داشت.

مقامات کانادایی همچنین پیشنهاد کردند که همکاری بین کشورها کلید توسعه سیاست بهتری است که به نفع همه باشد.

کانادا، در کنار فرانسه، رهبری گروه بین‌المللی هوش مصنوعی (IPAI) را برای ایجاد همکاری بین کشورها در راستای اجرای استراتژی‌های هوش مصنوعی خود بر عهده داشت.
مک گی گفت: «ایده این پانل این است که همکاری بین‌المللی را به روشی چندجانبه تسهیل می‌کند. این واقعاً به‌منظور ارائه مکانیسمی برای کشورها برای به اشتراک گذاشتن تحلیل و آینده‌نگری چند رشته‌ای است.»

استروم توضیح داد که همکاری بین المللی در زمینه هایی مانند هوش مصنوعی ضروری است زیرا این فناوری از محیط هر کشوری فراتر می رود. هیچ حد و مرزی وجود ندارد، و بنابراین تقویت گفت و گوی بین المللی برای بهره مندی از بیشترین مزایای هوش مصنوعی بسیار مهم است.

استروم گفت: «فرصتی برای هوش مصنوعی برای ارائه مزایای اجتماعی و اقتصادی فوق‌العاده مثبت برای جهان وجود دارد.

«اگر اشتباه متوجه شویم، یک فرصت واقعی از دست رفته وجود دارد. اما اگر آن را به درستی انجام دهیم، فرصت واقعاً فوق‌العاده‌ای برای به ارمغان آوردن منافع بزرگ دارد.»

منبع

Canada Leads Government AI on Ethics & Global Collaboration

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *