سیستم های هوش مصنوعی (AI) اکنون همه چیز را کنترل می کنند ، از تعدیل رسانه های اجتماعی ، تصمیم گیری برای استخدام ، سیاست و حاکمیت. امروز ، ما شرکت هایی داریم که در حال ساخت سیستم هایی برای استفاده از هوش مصنوعی هستند که می توانند پیش بینی کنند COVID-19 در چه مرحله ای حمله خواهد کرد و در مورد مراقبت های بهداشتی تصمیم می گیرند. اما در ایجاد این سیستم ها ، و در انتخاب داده هایی که تصمیمات آنها را مطلع می کند ، خطر زیادی وجود دارد که تعصب انسانی به اشتباه رخ دهد و اشتباهاتی را مرتکب شوند.

برای درک بهتر چگونگی ایجاد یک شخص اعتماد به سیستم های هوش مصنوعی ، ما با IBM تحقیق هند مدیرعامل هند ، Gargi Dasgupta و مهندس برجسته ، Sameep Mehta ، و همچنین دکتر Vivienne Ming ، AI متخصص و بنیانگذار Socos Labs ، دستگاه جوجه کشی هوش مصنوعی مستقر در کالیفرنیا ، برای یافتن برخی پاسخ ها.

چگونه تعصب به نظر می رسد در وهله اول به یک سیستم هوش مصنوعی تبدیل شوید؟

دکتر مینگ توضیح داد که وقتی هوش مصنوعی برای داده هایی که قبلاً مغرضانه هستند آموزش می یابد ، تعصب به یک مشکل تبدیل می شود. دکتر مینگ یک متخصص مغز و اعصاب و بنیانگذار آزمایشگاه های Socos است ، دستگاه جوجه کشی که برای یافتن راه حل برای مشکلات کثیف انسانی از طریق استفاده از AI تلاش می کند. “به عنوان یک دانشگاهی ، من این فرصت را داشته ام که با Google و آمازون و دیگران “توضیح داد.

  • هوش مصنوعی با پیش نویس قوانین سختگیرانه کمیسیون اروپا روبرو می شود

IBM Dasgupta اضافه کرد ،” ابزارها و تکنیک های خاصی برای اطمینان از عدم تعصب لازم است. ما باید مطمئن شویم و احتیاط بیشتری داشته باشیم که سوگیری را برطرف کنیم ، تا تعصبات ما ذاتاً به مدل ها منتقل نشود. ” الگوریتمی برای یافتن همبستگی – و آن را بعنوان علیت بخوانید. سر و صدا و نوسانات تصادفی را می توان به عنوان مفاهیم اصلی توسط مدل تفسیر کرد. اما پس از آن ، وقتی داده های جدید وارد می شود و دارای نوسانات یکسانی نیست ، مدل فکر می کند که با الزامات مطابقت ندارد.

  • %20

%20

%20“>” این فقط این نیست که آنها افراد بد؛ آنها افراد بدی نیستند ، اما هوش مصنوعی جادویی نیست. اگر انسان ها نتوانند رابطه جنسی یا نژادپرستی یا کاستیسم را دریابند ، AI نمی خواهد این کار را برای ما انجام دهد. ”

برای رفع تعصب و ایجاد اعتماد به سیستم AI چه کاری می توان انجام داد؟ >

دکتر مینگ در مقایسه با تنظیم آنها ، از حسابرسی سیستم های هوش مصنوعی طرفداری می کند. “من طرفدار بزرگ مقررات نیستم. شرکت ها ، از بزرگ تا کوچک ، باید حسابرسی را بپذیرند. وی گفت: حسابرسی از هوش مصنوعی ، الگوریتم ها و داده های آنها دقیقاً به همان روشی که برای صنعت مالی انجام می دهند. ”

” اگر می خواهیم سیستم های هوش مصنوعی در استخدام بی طرفانه باشند ، پس باید بتوانیم دکتر مینگ توضیح داد که چه چیزی “باعث می شود” کسی یک کارمند عالی باشد و نه “چه چیزی” با کارمندان بزرگ گذشته “ارتباط دارد”.

“چه رابطه ای آسان است – مدارس نخبه ، جنسیت خاص ، نژاد خاص – حداقل در بعضی از نقاط جهان آنها قبلاً بخشی از فرایند استخدام بوده اند. وقتی تحلیل علalی را اعمال می کنید ، رفتن به مدرسه نخبگان دیگر نشانگر دلیل مهارت افراد در شغل نیست. تعداد زیادی از افرادی که به مدارس نخبه نرفته اند به همان اندازه افرادی که به یکی از مدارس رفته اند در شغل خود مهارت دارند. ما به طور کلی در مجموعه داده های خود حدود 122 میلیون نفر یافتیم ، ده نفر و در بعضی موارد حدود 100 برابر افراد واجد شرایط بودند که در دانشگاه های نخبه تحصیل نمی کردند. ”

برای حل این مشکل ، اول اینکه بفهمیم آیا و چگونه یک مدل AI مغرضانه است ، و دوم اینکه ، الگوریتم هایی را برای از بین بردن تعصبات بکار ببریم.

به گفته مهتا ، “دو قسمت از داستان وجود دارد – یکی این است که بفهمید آیا یک مدل هوش مصنوعی مغرضانه است. در این صورت ، گام بعدی ارائه الگوریتم هایی برای حذف چنین تعصبات است. “

تحقیقات IBM طیف وسیعی از ابزارها را با هدف پرداختن و کاهش سوگیری در هوش مصنوعی منتشر کرد. IBM’s AI Fairness 360 Toolkit یکی از این ابزارهاست. این یک منبع سنجش منبع باز برای بررسی تعصب ناخواسته در مجموعه داده ها و مدل های یادگیری ماشین است که از 70 روش مختلف برای محاسبه تعصب در هوش مصنوعی استفاده می کند.

Dasgupta می گوید موارد متعددی وجود داشته است تعصب در یک سیستم و تیم IBM توانست آن را پیش بینی کند. “بعد از اینکه ما تعصب را پیش بینی کردیم ، این در دست مشتریان است که چگونه آنها را در بخشی از روند اصلاح خود ادغام کنند.”

تیم تحقیقاتی IBM همچنین جعبه ابزار AI Explainability 360 را توسعه داده است که مجموعه ای از الگوریتم هایی که قابلیت توضیح مدل های یادگیری ماشین را پشتیبانی می کنند. Dasgupta توضیح داد: این به مشتریان امکان می دهد سیستم خود را درک و بهبود یافته و تکرار کنند.

بخشی از این سیستم سیستمی است که IBM آن را FactSheets می خواند – دقیقاً مانند برچسب های تغذیه یا برچسب های حریم خصوصی برنامه که اخیراً اپل معرفی کرده است .

برگه های واقعی شامل س questionsالاتی از جمله “چرا این هوش مصنوعی ساخته شده است؟” ، “چگونه آموزش داده شده است؟” ، “مشخصات داده های آموزشی چیست” ، “آیا مدل منصفانه است؟” ، “آیا مدل قابل توضیح است؟” و غیره. این استاندارد سازی همچنین به مقایسه دو هوش مصنوعی در برابر یکدیگر کمک می کند. مهتا گفت که AI Fairness 360 Toolkit IBM و Watson Openscale در چندین مکان مستقر شده اند تا به مشتریان در تصمیم گیری کمک کنند.


آیا Mi 11 Ultra بهترین تلفنی است که می توانید با قیمت Rs خریداری کنید؟ . 70000؟ ما در مورد این موضوع در Orbital ، پادکست Gadgets 360 بحث کردیم. اوربیتال در پادکست های اپل در دسترس است ، با پادکست گوگل ، از Spotify ، موسیقی آمازون و هر کجا پادکست خود را می گیرید.